🚀 零样本显式双编码器
本项目是一个用于零样本文本分类的模型,借助显式训练与方面归一化的UTCD数据集,在双编码分类框架下进行训练。它基于Sentence - Transformers构建,代码可在指定仓库获取。
🚀 快速开始
本模型是一个 sentence - transformers 模型。它在ACL'23会议的研究成果论文 Label Agnostic Pre - training for Zero - shot Text Classification 中被提出,作者为 Christopher Clarke、Yuzhao Heng、Yiping Kang、Krisztian Flautner、Lingjia Tang 和 Jason Mars。训练和评估该模型的代码可在 [此处](https://github.com/ChrisIsKing/zero - shot - text - classification/tree/master) 找到。
✨ 主要特性
- 专为零样本文本分类设计。
- 在双编码分类框架下,通过使用方面归一化的 UTCD 数据集进行显式训练。
- 微调基础模型:[
bert - base - uncased
](https://huggingface.co/bert - base - uncased)
📦 安装指南
文档未提供安装步骤,暂不展示相关内容。
💻 使用示例
基础用法
>>> from sentence_transformers import SentenceTransformer, util as sbert_util
>>> model = SentenceTransformer(model_name_or_path='claritylab/zero-shot-explicit-bi-encoder')
>>> text = "I'd like to have this track onto my Classical Relaxations playlist."
>>> labels = [
>>> 'Add To Playlist', 'Book Restaurant', 'Get Weather', 'Play Music', 'Rate Book', 'Search Creative Work',
>>> 'Search Screening Event'
>>> ]
>>> text_embed = model.encode(text)
>>> label_embeds = model.encode(labels)
>>> scores = [sbert_util.cos_sim(text_embed, lb_embed).item() for lb_embed in label_embeds]
>>> print(scores)
[
0.53502357006073,
0.051911696791648865,
0.0546676367521286,
0.5633962750434875,
0.28765711188316345,
0.17751818895339966,
0.18489906191825867
]
高级用法
文档未提供高级用法代码示例,暂不展示相关内容。
📚 详细文档
文档未提供更多详细说明,暂不展示相关内容。
🔧 技术细节
文档未提供技术实现细节,暂不展示相关内容。
📄 许可证
本项目采用 MIT 许可证。