Moritzlaurer Mdeberta V3 Base Mnli Xnli
MIT
支持100種語言的自然語言推理模型,適用於多語言零樣本分類任務
文本分類 支持多種語言
M
MaagDeveloper
47
0
Modernbert Large Nli
Apache-2.0
基於ModernBERT-large模型,通過多任務微調優化的自然語言推理模型,在零樣本分類和NLI任務上表現優異。
大型語言模型
Transformers 支持多種語言

M
tasksource
61.52k
5
Modernbert Large Zeroshot V1
MIT
基於ModernBERT-large微調的自然語言推理模型,專門用於零樣本分類任務
文本分類
Transformers 英語

M
r-f
54
2
Modernbert Base Nli
Apache-2.0
ModernBERT 是一個在多任務源的自然語言推理(NLI)任務上微調的模型,擅長零樣本分類和長上下文推理。
大型語言模型
Transformers 支持多種語言

M
tasksource
1,867
20
Bart Large Mnli Openvino
MIT
這是 facebook/bart-large-mnli 模型的 OpenVINO 優化版本,用於零樣本文本分類任務。
文本分類
B
Smashyalts
16
0
Zion Alpha Instruction Tuned SLERP
Apache-2.0
Zion_Alpha_Instruction_Tuned_SLERP 是一款基於希伯來語訓練的創新型語言模型,在情感分析和自然語言推理等任務中表現卓越。
大型語言模型
Transformers 支持多種語言

Z
SicariusSicariiStuff
3,180
2
Bge M3 Zeroshot V2.0
MIT
專為高效零樣本分類設計的模型,支持多語言文本分類任務,無需訓練數據即可執行分類
文本分類
Transformers 其他

B
MoritzLaurer
73.31k
49
Bge M3 Zeroshot V2.0 C
MIT
基於BAAI/bge-m3-retromae訓練的多語言零樣本文本分類模型,專為商業友好場景設計
文本分類
Transformers 其他

B
MoritzLaurer
67
13
Switch Base 8 Mnli
Apache-2.0
這是一個基於google/switch-base-8在GLUE MNLI數據集上微調的文本分類模型,主要用於自然語言推理任務。
文本分類
Transformers 英語

S
glamprou
17
0
Nli Entailment Verifier Xxl
基於flan-t5-xxl微調的NLI模型,用於驗證前提是否支持假設,特別優化多句前提場景
大型語言模型
Transformers 英語

N
soumyasanyal
164
5
Ag Nli Bert Mpnet Base Uncased Sentence Similarity V1
這是一個基於sentence-transformers的模型,能夠將句子和段落映射到768維的密集向量空間,適用於聚類或語義搜索等任務。
文本嵌入
Transformers 其他

A
abbasgolestani
18
0
Deberta V3 Large Tasksource Nli
基於DeBERTa-v3-large架構的自然語言推理模型,適配Transformers.js的ONNX權重版
文本分類
Transformers

D
Xenova
31
1
Nli Deberta Base
基於DeBERTa架構的自然語言推理(NLI)模型,適用於零樣本分類任務,已轉換為ONNX格式以兼容Transformers.js
文本分類
Transformers

N
Xenova
30
0
Deberta V3 Base Tasksource Nli
基於DeBERTa-v3架構的自然語言推理模型,適配Transformers.js的ONNX權重版本
大型語言模型
Transformers

D
Xenova
31
0
Nli Deberta V3 Small
基於DeBERTa-v3的小型自然語言推理模型,適用於零樣本分類任務
文本分類
Transformers

N
Xenova
423
0
Camembert Base Xnli
MIT
基於Camembert-base模型,在XNLI數據集的法語部分進行微調,支持法語零樣本分類
文本分類
Transformers 支持多種語言

C
mtheo
72
5
E5 Base V2 Mnli Anli
MIT
該模型是基於intfloat/e5-base-v2在GLUE(MNLI)和ANLI數據集上微調的版本,適用於零樣本分類和自然語言推理任務。
文本分類
Transformers 英語

E
mjwong
6,598
0
Flan T5 Xxl Classif 3way
基於Flan-T5-xxl改造的序列分類模型,專為自然語言推理任務設計,參數量減半且支持零樣本分類
文本分類
Transformers 英語

F
AntoineBlanot
26
3
Ernie M Large Mnli Xnli
Apache-2.0
支持100種語言的自然語言推理模型,適用於多語言零樣本分類任務
大型語言模型
Transformers 支持多種語言

E
MoritzLaurer
94
18
Multilingual MiniLMv2 L12 Mnli Xnli
MIT
支持100多種語言的多語言自然語言推理模型,適用於零樣本分類任務
文本分類
Transformers 支持多種語言

M
MoritzLaurer
245
6
Xlm V Base Mnli Xnli
MIT
基於XLM-V-base的多語言自然語言推理模型,支持116種語言的零樣本分類任務
大型語言模型
Transformers 支持多種語言

X
MoritzLaurer
293
22
Deberta V3 Base Tasksource Nli
Apache-2.0
基於DeBERTa-v3-base在600+任務上進行多任務學習微調的模型,擅長零樣本分類和自然語言推理
文本分類
Transformers 支持多種語言

D
sileod
182.30k
124
Scandi Nli Base
Apache-2.0
基於NbAiLab/nb-bert-base微調的自然語言推理模型,支持丹麥語、挪威博克馬爾語和瑞典語
文本分類
Transformers 其他

S
alexandrainst
19
1
Scandi Nli Large
Apache-2.0
支持丹麥語、挪威語和瑞典語的零樣本分類自然語言推理模型
文本分類
Transformers 其他

S
alexandrainst
72.26k
9
Roberta Base Mnli Uf Ner 1024 Train V0
MIT
基於RoBERTa-base模型在MNLI數據集上微調的版本,適用於自然語言推理任務
大型語言模型
Transformers

R
mariolinml
26
1
Mt0 Xxl
Apache-2.0
mt0-xxl是BLOOMZ系列的多語言大模型,支持46種語言的跨語言任務處理,基於xP3數據集微調,擅長零樣本跨語言指令執行
大型語言模型
Transformers 支持多種語言

M
bigscience
1,914
60
Bert Base Japanese Jsnli
基於BERT的日語自然語言推理模型,在JSNLI數據集上微調,適用於零樣本分類和文本分類任務。
文本分類
Transformers 支持多種語言

B
Formzu
175
0
Mdeberta V3 Base Xnli Multilingual Nli 2mil7
MIT
基於mDeBERTa-v3-base的多語言自然語言推理模型,支持100種語言的零樣本分類
大型語言模型
Transformers 支持多種語言

M
MoritzLaurer
186.62k
316
Bert Tiny Finetuned Glue Rte
Apache-2.0
這是一個基於BERT-tiny架構在GLUE RTE任務上微調的文本分類模型,主要用於文本蘊含識別任務。
文本分類
Transformers

B
muhtasham
37
1
Deberta V3 Large Mnli Fever Anli Ling Wanli
MIT
基於DeBERTa-v3-large微調的NLI模型,在多個NLI數據集上達到最先進性能
文本分類
Transformers 英語

D
MoritzLaurer
312.01k
95
Bertin Roberta Base Zeroshot Esnli
該模型是基於bertin-roberta-base-spanish訓練的零樣本分類器,適用於西班牙語文本分類任務。
文本分類
Transformers 支持多種語言

B
somosnlp-hackathon-2022
54
3
Roberta Large Wanli
基於WANLI數據集微調的roberta-large模型,用於自然語言推理任務,在多個域外測試集上表現優於roberta-large-mnli。
文本分類
Transformers 英語

R
alisawuffles
1,195
9
Bertin Roberta Base Finetuning Esnli
基於BERTIN RoBERTa的西班牙語句子嵌入模型,專為自然語言推理任務優化
文本嵌入 西班牙語
B
somosnlp-hackathon-2022
103
7
Distilbert Base Uncased Mnli
基於無大小寫區分的DistilBERT模型,在多體裁自然語言推理(MNLI)數據集上微調,專為零樣本分類任務優化
文本分類
Transformers 英語

D
optimum
53
3
Nli Deberta V3 Large
Apache-2.0
基於microsoft/deberta-v3-large架構的交叉編碼器模型,用於自然語言推理任務,在SNLI和MultiNLI數據集上訓練。
文本分類
Transformers 英語

N
navteca
24
3
Bert Medium Mnli
該模型是通過轉換谷歌官方BERT倉庫中的TensorFlow檢查點獲得的PyTorch預訓練模型,基於MNLI數據集訓練,用於自然語言推理任務。
大型語言模型
B
prajjwal1
415
1
Rubert Tiny Bilingual Nli
基於rubert-tiny微調的俄語自然語言推理模型,用於預測文本間的邏輯關係
文本分類
Transformers 其他

R
cointegrated
122
8
Distilbert Base Uncased Finetuned Mnli
Apache-2.0
該模型是基於distilbert-base-uncased在GLUE的MNLI任務上微調的文本分類模型,主要用於自然語言推理任務。
文本分類
Transformers

D
blizrys
23
0
Albert Base V2 Mnli
該模型研究自然語言推理(NLI)任務中的泛化能力,探討如何超越簡單的啟發式方法。
大型語言模型
Transformers

A
prajjwal1
29
0
Bert Base Cased Finetuned Mnli
Apache-2.0
基於bert-base-cased在GLUE MNLI數據集上微調的文本分類模型,用於自然語言推理任務
文本分類
Transformers 英語

B
gchhablani
84
2
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98