🚀 自然言語推論用クロスエンコーダ
このモデルは、自然言語推論のタスクに特化したクロスエンコーダです。SentenceTransformersのCross-Encoderクラスを用いて学習されており、microsoft/deberta-v3-smallをベースに構築されています。
🚀 クイックスタート
このモデルは、自然言語推論のタスクに使用できます。与えられた文のペアに対して、矛盾、含意、中立の3つのラベルに対応するスコアを出力します。
✨ 主な機能
- 高精度な自然言語推論:SNLIとMultiNLIデータセットで学習され、高い精度を達成しています。
- ゼロショット分類:事前学習されたモデルを用いて、新しいクラスに対する分類タスクを実行できます。
📦 インストール
このモデルを使用するには、sentence-transformers
またはtransformers
ライブラリが必要です。以下のコマンドでインストールできます。
pip install sentence-transformers transformers
💻 使用例
基本的な使用法
from sentence_transformers import CrossEncoder
model = CrossEncoder('cross-encoder/nli-deberta-v3-small')
scores = model.predict([('A man is eating pizza', 'A man eats something'), ('A black race car starts up in front of a crowd of people.', 'A man is driving down a lonely road.')])
label_mapping = ['contradiction', 'entailment', 'neutral']
labels = [label_mapping[score_max] for score_max in scores.argmax(axis=1)]
高度な使用法
from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch
model = AutoModelForSequenceClassification.from_pretrained('cross-encoder/nli-deberta-v3-small')
tokenizer = AutoTokenizer.from_pretrained('cross-encoder/nli-deberta-v3-small')
features = tokenizer(['A man is eating pizza', 'A black race car starts up in front of a crowd of people.'], ['A man eats something', 'A man is driving down a lonely road.'], padding=True, truncation=True, return_tensors="pt")
model.eval()
with torch.no_grad():
scores = model(**features).logits
label_mapping = ['contradiction', 'entailment', 'neutral']
labels = [label_mapping[score_max] for score_max in scores.argmax(dim=1)]
print(labels)
ゼロショット分類の使用法
from transformers import pipeline
classifier = pipeline("zero-shot-classification", model='cross-encoder/nli-deberta-v3-small')
sent = "Apple just announced the newest iPhone X"
candidate_labels = ["technology", "sports", "politics"]
res = classifier(sent, candidate_labels)
print(res)
📚 ドキュメント
学習データ
このモデルは、SNLIとMultiNLIデータセットで学習されています。与えられた文のペアに対して、矛盾、含意、中立の3つのラベルに対応するスコアを出力します。
性能
- SNLIテストデータセットでの精度: 91.65
- MNLIミスマッチセットでの精度: 87.55
詳細な評価結果については、SBERT.net - Pretrained Cross-Encoderを参照してください。
📄 ライセンス
このモデルは、Apache-2.0ライセンスの下で提供されています。
情報テーブル
属性 |
詳情 |
パイプラインタグ |
ゼロショット分類 |
タグ |
transformers |
データセット |
nyu-mll/multi_nli, stanfordnlp/snli |
評価指標 |
精度 |
ライセンス |
apache-2.0 |
ベースモデル |
microsoft/deberta-v3-small |
ライブラリ名 |
sentence-transformers |