🚀 零樣本顯式雙編碼器
本項目是一個用於零樣本文本分類的模型,藉助顯式訓練與方面歸一化的UTCD數據集,在雙編碼分類框架下進行訓練。它基於Sentence - Transformers構建,代碼可在指定倉庫獲取。
🚀 快速開始
本模型是一個 sentence - transformers 模型。它在ACL'23會議的研究成果論文 Label Agnostic Pre - training for Zero - shot Text Classification 中被提出,作者為 Christopher Clarke、Yuzhao Heng、Yiping Kang、Krisztian Flautner、Lingjia Tang 和 Jason Mars。訓練和評估該模型的代碼可在 [此處](https://github.com/ChrisIsKing/zero - shot - text - classification/tree/master) 找到。
✨ 主要特性
- 專為零樣本文本分類設計。
- 在雙編碼分類框架下,通過使用方面歸一化的 UTCD 數據集進行顯式訓練。
- 微調基礎模型:[
bert - base - uncased
](https://huggingface.co/bert - base - uncased)
📦 安裝指南
文檔未提供安裝步驟,暫不展示相關內容。
💻 使用示例
基礎用法
>>> from sentence_transformers import SentenceTransformer, util as sbert_util
>>> model = SentenceTransformer(model_name_or_path='claritylab/zero-shot-explicit-bi-encoder')
>>> text = "I'd like to have this track onto my Classical Relaxations playlist."
>>> labels = [
>>> 'Add To Playlist', 'Book Restaurant', 'Get Weather', 'Play Music', 'Rate Book', 'Search Creative Work',
>>> 'Search Screening Event'
>>> ]
>>> text_embed = model.encode(text)
>>> label_embeds = model.encode(labels)
>>> scores = [sbert_util.cos_sim(text_embed, lb_embed).item() for lb_embed in label_embeds]
>>> print(scores)
[
0.53502357006073,
0.051911696791648865,
0.0546676367521286,
0.5633962750434875,
0.28765711188316345,
0.17751818895339966,
0.18489906191825867
]
高級用法
文檔未提供高級用法代碼示例,暫不展示相關內容。
📚 詳細文檔
文檔未提供更多詳細說明,暫不展示相關內容。
🔧 技術細節
文檔未提供技術實現細節,暫不展示相關內容。
📄 許可證
本項目採用 MIT 許可證。