🚀 跨注意力NLI模型
这是一个经过训练的跨注意力自然语言推理(NLI)模型,可用于零样本和少样本的文本分类任务。该模型基于xlm - roberta - base
,能在多种语言环境下实现高效准确的文本分类。
✨ 主要特性
- 多语言支持:支持阿拉伯语(ar)、保加利亚语(bg)、德语(de)、希腊语(el)、英语(en)、西班牙语(es)、法语(fr)、俄语(ru)、泰语(th)、土耳其语(tr)、乌尔都语(ur)、越南语(vn)、中文(zh)等多种语言,还支持多语言模式。
- 零样本和少样本分类:无需大量标注数据,即可对文本进行分类。
📦 安装指南
文档未提供具体安装命令,跳过此章节。
💻 使用示例
基础用法
from transformers import AutoModelForSequenceClassification, AutoTokenizer
import torch
import numpy as np
model = AutoModelForSequenceClassification.from_pretrained("symanto/xlm-roberta-base-snli-mnli-anli-xnli")
tokenizer = AutoTokenizer.from_pretrained("symanto/xlm-roberta-base-snli-mnli-anli-xnli")
input_pairs = [
("I like this pizza.", "The sentence is positive."),
("I like this pizza.", "The sentence is negative."),
("I mag diese Pizza.", "Der Satz ist positiv."),
("I mag diese Pizza.", "Der Satz ist negativ."),
("Me gusta esta pizza.", "Esta frase es positivo."),
("Me gusta esta pizza.", "Esta frase es negativo."),
]
inputs = tokenizer(input_pairs, truncation="only_first", return_tensors="pt", padding=True)
logits = model(**inputs).logits
probs = torch.softmax(logits, dim=1)
probs = probs[..., [0]].tolist()
print("probs", probs)
np.testing.assert_almost_equal(probs, [[0.83], [0.04], [1.00], [0.00], [1.00], [0.00]], decimal=2)
高级用法
文档未提供高级用法代码示例,跳过此部分。
📚 详细文档
支持语言
属性 |
详情 |
支持语言 |
阿拉伯语(ar)、保加利亚语(bg)、德语(de)、希腊语(el)、英语(en)、西班牙语(es)、法语(fr)、俄语(ru)、泰语(th)、土耳其语(tr)、乌尔都语(ur)、越南语(vn)、中文(zh)、多语言模式 |
训练数据集
基础模型
该模型基于 [xlm - roberta - base](https://huggingface.co/xlm - roberta - base),使用 此处 的代码进行训练。
🔧 技术细节
文档未提供具体技术实现细节,跳过此章节。
📄 许可证
文档未提供许可证信息,跳过此章节。