🚀 自然語言推理跨編碼器
本模型是用於自然語言推理的跨編碼器,藉助 SentenceTransformers 的 Cross-Encoder 類進行訓練。它能對給定的句子對輸出對應“矛盾”“蘊含”“中立”三個標籤的得分。
🚀 快速開始
本模型可用於自然語言推理任務,通過輸入句子對,輸出對應不同標籤的得分。同時,它也支持零樣本分類任務。
✨ 主要特性
📦 安裝指南
文檔未提及具體安裝步驟,可參考 SentenceTransformers 和 Transformers 官方文檔進行安裝。
💻 使用示例
基礎用法
使用預訓練模型進行推理:
from sentence_transformers import CrossEncoder
model = CrossEncoder('cross-encoder/nli-roberta-base')
scores = model.predict([('A man is eating pizza', 'A man eats something'), ('A black race car starts up in front of a crowd of people.', 'A man is driving down a lonely road.')])
label_mapping = ['contradiction', 'entailment', 'neutral']
labels = [label_mapping[score_max] for score_max in scores.argmax(axis=1)]
高級用法
使用 Transformers 庫直接調用模型:
from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch
model = AutoModelForSequenceClassification.from_pretrained('cross-encoder/nli-roberta-base')
tokenizer = AutoTokenizer.from_pretrained('cross-encoder/nli-roberta-base')
features = tokenizer(['A man is eating pizza', 'A black race car starts up in front of a crowd of people.'], ['A man eats something', 'A man is driving down a lonely road.'], padding=True, truncation=True, return_tensors="pt")
model.eval()
with torch.no_grad():
scores = model(**features).logits
label_mapping = ['contradiction', 'entailment', 'neutral']
labels = [label_mapping[score_max] for score_max in scores.argmax(dim=1)]
print(labels)
零樣本分類用法
使用模型進行零樣本分類:
from transformers import pipeline
classifier = pipeline("zero-shot-classification", model='cross-encoder/nli-roberta-base')
sent = "Apple just announced the newest iPhone X"
candidate_labels = ["technology", "sports", "politics"]
res = classifier(sent, candidate_labels)
print(res)
📚 詳細文檔
訓練數據
模型在 SNLI 和 MultiNLI 數據集上進行訓練。對於給定的句子對,它將輸出對應“矛盾”“蘊含”“中立”三個標籤的得分。
性能評估
評估結果請參考 SBERT.net - Pretrained Cross-Encoder。
📄 許可證
本模型使用的許可證為 Apache-2.0。
📋 信息表格
屬性 |
詳情 |
模型類型 |
自然語言推理跨編碼器 |
訓練數據 |
SNLI 和 MultiNLI 數據集 |
評估指標 |
準確率 |
許可證 |
Apache-2.0 |
基礎模型 |
FacebookAI/roberta-base |
庫名稱 |
sentence-transformers |