Moritzlaurer Mdeberta V3 Base Mnli Xnli
MIT
支持100种语言的自然语言推理模型,适用于多语言零样本分类任务
文本分类 支持多种语言
M
MaagDeveloper
47
0
Modernbert Large Nli
Apache-2.0
基于ModernBERT-large模型,通过多任务微调优化的自然语言推理模型,在零样本分类和NLI任务上表现优异。
大型语言模型
Transformers 支持多种语言

M
tasksource
61.52k
5
Modernbert Large Zeroshot V1
MIT
基于ModernBERT-large微调的自然语言推理模型,专门用于零样本分类任务
文本分类
Transformers 英语

M
r-f
54
2
Modernbert Base Nli
Apache-2.0
ModernBERT 是一个在多任务源的自然语言推理(NLI)任务上微调的模型,擅长零样本分类和长上下文推理。
大型语言模型
Transformers 支持多种语言

M
tasksource
1,867
20
Bart Large Mnli Openvino
MIT
这是 facebook/bart-large-mnli 模型的 OpenVINO 优化版本,用于零样本文本分类任务。
文本分类
B
Smashyalts
16
0
Zion Alpha Instruction Tuned SLERP
Apache-2.0
Zion_Alpha_Instruction_Tuned_SLERP 是一款基于希伯来语训练的创新型语言模型,在情感分析和自然语言推理等任务中表现卓越。
大型语言模型
Transformers 支持多种语言

Z
SicariusSicariiStuff
3,180
2
Bge M3 Zeroshot V2.0
MIT
专为高效零样本分类设计的模型,支持多语言文本分类任务,无需训练数据即可执行分类
文本分类
Transformers 其他

B
MoritzLaurer
73.31k
49
Bge M3 Zeroshot V2.0 C
MIT
基于BAAI/bge-m3-retromae训练的多语言零样本文本分类模型,专为商业友好场景设计
文本分类
Transformers 其他

B
MoritzLaurer
67
13
Switch Base 8 Mnli
Apache-2.0
这是一个基于google/switch-base-8在GLUE MNLI数据集上微调的文本分类模型,主要用于自然语言推理任务。
文本分类
Transformers 英语

S
glamprou
17
0
Nli Entailment Verifier Xxl
基于flan-t5-xxl微调的NLI模型,用于验证前提是否支持假设,特别优化多句前提场景
大型语言模型
Transformers 英语

N
soumyasanyal
164
5
Ag Nli Bert Mpnet Base Uncased Sentence Similarity V1
这是一个基于sentence-transformers的模型,能够将句子和段落映射到768维的密集向量空间,适用于聚类或语义搜索等任务。
文本嵌入
Transformers 其他

A
abbasgolestani
18
0
Deberta V3 Large Tasksource Nli
基于DeBERTa-v3-large架构的自然语言推理模型,适配Transformers.js的ONNX权重版
文本分类
Transformers

D
Xenova
31
1
Nli Deberta Base
基于DeBERTa架构的自然语言推理(NLI)模型,适用于零样本分类任务,已转换为ONNX格式以兼容Transformers.js
文本分类
Transformers

N
Xenova
30
0
Deberta V3 Base Tasksource Nli
基于DeBERTa-v3架构的自然语言推理模型,适配Transformers.js的ONNX权重版本
大型语言模型
Transformers

D
Xenova
31
0
Nli Deberta V3 Small
基于DeBERTa-v3的小型自然语言推理模型,适用于零样本分类任务
文本分类
Transformers

N
Xenova
423
0
Camembert Base Xnli
MIT
基于Camembert-base模型,在XNLI数据集的法语部分进行微调,支持法语零样本分类
文本分类
Transformers 支持多种语言

C
mtheo
72
5
E5 Base V2 Mnli Anli
MIT
该模型是基于intfloat/e5-base-v2在GLUE(MNLI)和ANLI数据集上微调的版本,适用于零样本分类和自然语言推理任务。
文本分类
Transformers 英语

E
mjwong
6,598
0
Flan T5 Xxl Classif 3way
基于Flan-T5-xxl改造的序列分类模型,专为自然语言推理任务设计,参数量减半且支持零样本分类
文本分类
Transformers 英语

F
AntoineBlanot
26
3
Ernie M Large Mnli Xnli
Apache-2.0
支持100种语言的自然语言推理模型,适用于多语言零样本分类任务
大型语言模型
Transformers 支持多种语言

E
MoritzLaurer
94
18
Multilingual MiniLMv2 L12 Mnli Xnli
MIT
支持100多种语言的多语言自然语言推理模型,适用于零样本分类任务
文本分类
Transformers 支持多种语言

M
MoritzLaurer
245
6
Xlm V Base Mnli Xnli
MIT
基于XLM-V-base的多语言自然语言推理模型,支持116种语言的零样本分类任务
大型语言模型
Transformers 支持多种语言

X
MoritzLaurer
293
22
Deberta V3 Base Tasksource Nli
Apache-2.0
基于DeBERTa-v3-base在600+任务上进行多任务学习微调的模型,擅长零样本分类和自然语言推理
文本分类
Transformers 支持多种语言

D
sileod
182.30k
124
Scandi Nli Base
Apache-2.0
基于NbAiLab/nb-bert-base微调的自然语言推理模型,支持丹麦语、挪威博克马尔语和瑞典语
文本分类
Transformers 其他

S
alexandrainst
19
1
Scandi Nli Large
Apache-2.0
支持丹麦语、挪威语和瑞典语的零样本分类自然语言推理模型
文本分类
Transformers 其他

S
alexandrainst
72.26k
9
Roberta Base Mnli Uf Ner 1024 Train V0
MIT
基于RoBERTa-base模型在MNLI数据集上微调的版本,适用于自然语言推理任务
大型语言模型
Transformers

R
mariolinml
26
1
Mt0 Xxl
Apache-2.0
mt0-xxl是BLOOMZ系列的多语言大模型,支持46种语言的跨语言任务处理,基于xP3数据集微调,擅长零样本跨语言指令执行
大型语言模型
Transformers 支持多种语言

M
bigscience
1,914
60
Bert Base Japanese Jsnli
基于BERT的日语自然语言推理模型,在JSNLI数据集上微调,适用于零样本分类和文本分类任务。
文本分类
Transformers 支持多种语言

B
Formzu
175
0
Mdeberta V3 Base Xnli Multilingual Nli 2mil7
MIT
基于mDeBERTa-v3-base的多语言自然语言推理模型,支持100种语言的零样本分类
大型语言模型
Transformers 支持多种语言

M
MoritzLaurer
186.62k
316
Bert Tiny Finetuned Glue Rte
Apache-2.0
这是一个基于BERT-tiny架构在GLUE RTE任务上微调的文本分类模型,主要用于文本蕴含识别任务。
文本分类
Transformers

B
muhtasham
37
1
Deberta V3 Large Mnli Fever Anli Ling Wanli
MIT
基于DeBERTa-v3-large微调的NLI模型,在多个NLI数据集上达到最先进性能
文本分类
Transformers 英语

D
MoritzLaurer
312.01k
95
Bertin Roberta Base Zeroshot Esnli
该模型是基于bertin-roberta-base-spanish训练的零样本分类器,适用于西班牙语文本分类任务。
文本分类
Transformers 支持多种语言

B
somosnlp-hackathon-2022
54
3
Roberta Large Wanli
基于WANLI数据集微调的roberta-large模型,用于自然语言推理任务,在多个域外测试集上表现优于roberta-large-mnli。
文本分类
Transformers 英语

R
alisawuffles
1,195
9
Bertin Roberta Base Finetuning Esnli
基于BERTIN RoBERTa的西班牙语句子嵌入模型,专为自然语言推理任务优化
文本嵌入 西班牙语
B
somosnlp-hackathon-2022
103
7
Distilbert Base Uncased Mnli
基于无大小写区分的DistilBERT模型,在多体裁自然语言推理(MNLI)数据集上微调,专为零样本分类任务优化
文本分类
Transformers 英语

D
optimum
53
3
Nli Deberta V3 Large
Apache-2.0
基于microsoft/deberta-v3-large架构的交叉编码器模型,用于自然语言推理任务,在SNLI和MultiNLI数据集上训练。
文本分类
Transformers 英语

N
navteca
24
3
Ruperta Base Finetuned Pawsx Es
该模型是基于RuPERTa-base架构,在PAWS-X-es西班牙语数据集上微调的自然语言推理模型,专门用于识别句子对是否为复述关系。
文本分类 支持多种语言
R
mrm8488
14
0
Squeezebert Mnli
SqueezeBERT 是 BERT 的轻量级版本,通过优化架构减少计算资源需求,同时保持较高的自然语言理解性能。
大型语言模型
Transformers 英语

S
typeform
37
4
Mpnet Base Snli Mnli
一个专为零样本和小样本文本分类训练的交叉注意力自然语言推理模型。
文本分类
Transformers 英语

M
symanto
18
4
Albert Xlarge V2 Finetuned Wnli
Apache-2.0
该模型是基于ALBERT-xlarge-v2在GLUE的WNLI任务上微调的文本分类模型
文本分类
Transformers

A
anirudh21
31
0
Distilbert Base Uncased Mnli
DistilBERT是BERT的精简版本,保留了BERT 97%的性能,同时体积减小40%,速度提升60%。
大型语言模型
Transformers 英语

D
typeform
74.81k
38
- 1
- 2
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98