🚀 DeBERTa-v3-base零样本分类模型
本项目托管了一个经过微调的DeBERTa-v3-base
模型,专门用于零样本文本分类。借助该模型,你无需为特定任务重新训练模型,即可将文本分类到预定义的类别中。对于标注数据稀缺的任务或文本分类解决方案的快速原型开发而言,它是理想之选。
🚀 快速开始
本模型旨在与Hugging Face的transformers
库无缝集成。以下是一个简单的示例:
from transformers import pipeline
classifier = pipeline("zero-shot-classification", model="syedkhalid076/DeBERTa-Zero-Shot-Classification")
sequence_to_classify = "Last week I upgraded my iOS version and ever since then your app is crashing."
candidate_labels = ["mobile", "website", "billing", "account access", "app crash"]
output = classifier(sequence_to_classify, candidate_labels, multi_label=False)
print(output)
✨ 主要特性
- 零样本分类:无需额外训练,即可直接将文本分类到任何用户定义的标签集合中。
- 多标签支持:处理具有重叠类别或多个适用标签的任务(设置
multi_label=True
)。
- 预训练效率:使用混合精度(
float16
)和SafeTensors进行推理优化。
📚 详细文档
模型概述
属性 |
详情 |
基础模型 |
DeBERTa-v3-base |
架构 |
DebertaV2ForSequenceClassification |
语言 |
英语 (en ) |
数据类型 |
float16 (采用SafeTensor格式以提高效率) |
该模型利用了DeBERTa-v3-base
的能力,并在multi_nli
、facebook/anli
和fever
等数据集上进行了微调,以提升其零样本分类性能。
应用场景
我训练此模型是出于用户体验研究目的,但它可用于以下任何任务:
- 客户反馈分析:对用户评论或反馈进行分类。
- 意图检测:识别对话式人工智能系统中的用户意图。
- 内容分类:对文章、社交媒体帖子或文档进行分类。
- 错误检测:检测日志或反馈中的错误报告。
训练数据
该模型在以下数据集上进行了微调:
这些数据集有助于模型在广泛的零样本分类任务中实现泛化。
性能表现
该模型在各种零样本分类基准测试中表现出色,能够有效区分不同文本输入中的用户定义类别。
局限性
- 语言支持:目前仅支持英语 (
en
)。
- 上下文长度:对于极长的文本输入,性能可能会下降。建议将输入截断至模型的最大标记长度。
📄 许可证
本模型采用MIT许可证。你可以自由使用、修改和分发该模型,但需进行适当的引用。
🔗 引用
如果你在工作中使用了此模型,请引用此仓库:
@misc{syedkhalid076_deberta_zeroshoot,
author = {Syed Khalid Hussain},
title = {DeBERTa Zero-Shot Classification},
year = {2024},
url = {https://huggingface.co/syedkhalid076/DeBERTa-Zero-Shot-Classification}
}
🙏 致谢
本模型使用 Hugging Face Transformers 进行微调,并托管在Hugging Face模型中心。特别感谢DeBERTa-v3
的开发者以及贡献数据集的人员。