Tessar Largest
MIT
Tessar是由SVECTOR開發的先進表格推理模型,基於突破性研究成果,不斷拓展神經表格理解的邊界。
問答系統 英語
T
SVECTOR-CORPORATION
101
1
Bart Large Cnn Finetuned For Email And Text
MIT
BART Large CNN 是一個基於 BART 架構的預訓練模型,專門用於文本摘要生成任務。
文本生成 英語
B
vapit
17
0
Text Summarize BartBaseCNN Finetune
MIT
基於BART架構的文本摘要模型,適用於英語科學論文的摘要生成任務。
文本生成
Transformers 英語

T
GilbertKrantz
0
0
Bart Medtranscription
Apache-2.0
基於BART架構的大型摘要生成模型,專門針對醫學文獻摘要任務進行優化
文本生成
Transformers 英語

B
Ram20307
148
1
Kobart Summary V3
基於kobart模型微調的韓語文本摘要模型,生成包含更多短句的摘要文本
文本生成
Transformers 韓語

K
EbanLee
5,139
17
Bart Finetuned Text Summarization
MIT
基於BART架構微調的文本摘要模型,專為生成簡潔準確的摘要而設計
文本生成
Transformers 英語

B
suriya7
1,547
9
Tapex Large Finetuned Qtsumm
MIT
基於BART架構的表格摘要生成模型,針對查詢聚焦的表格摘要任務進行了優化。
文本生成
Transformers 英語

T
yale-nlp
18
0
Mentalbart
MIT
MentalBART是基於facebook/bart-large微調的心理健康分析模型,屬於MentaLLaMA項目的一部分,專注於可解釋的心理健康分析。
大型語言模型
Transformers 英語

M
Tianlin668
1,755
2
Autotrain Summarization Bart Longformer 54164127153
基於AutoTrain平臺訓練的文本摘要生成模型,採用BART-Longformer架構
文本生成
Transformers 其他

A
Udit191
16
0
Arabart Finetuned Wiki Ar
Apache-2.0
基於AraBART在阿拉伯語維基數據集上微調的翻譯模型
機器翻譯
Transformers

A
Jezia
382
0
Led Base 16384 Billsum Summarization
該模型是在billsum數據集上對led-base-16384進行微調的版本,專門用於長文檔摘要生成任務。
文本生成
Transformers 支持多種語言

L
AlgorithmicResearchGroup
15
1
Omnitab Large
OmniTab是基於BART架構的表格問答模型,通過自然與合成數據預訓練實現少樣本表格問答能力
問答系統
Transformers 英語

O
neulab
158
2
Omnitab Large Finetuned Wtq
OmniTab是基於表格的問答模型,通過自然與合成數據預訓練實現少樣本表格問答能力。
問答系統
Transformers 英語

O
neulab
55
7
Bart Base Few Shot K 256 Finetuned Squad Seed 2
Apache-2.0
基於BART-base架構,在SQuAD數據集上進行微調的問答模型,適用於少樣本學習場景
問答系統
Transformers

B
anas-awadalla
13
0
Bart Base Few Shot K 128 Finetuned Squad Seed 4
Apache-2.0
基於BART-base架構,在SQuAD數據集上進行微調的問答模型,適用於閱讀理解任務。
問答系統
Transformers

B
anas-awadalla
13
0
Bart Base Few Shot K 64 Finetuned Squad Seed 0
Apache-2.0
基於facebook/bart-base模型在SQuAD數據集上進行微調的版本,適用於問答任務
問答系統
Transformers

B
anas-awadalla
13
0
CGRE CNDBPedia Generative Relation Extraction
CGRE是一種基於BART的中文端到端關係抽取模型,採用生成式方法實現實體關係抽取,在多箇中文關係抽取數據集上表現優異。
知識圖譜
Transformers

C
fanxiao
63
3
Tapex Base Finetuned Wtq
MIT
TAPEX是一種通過神經SQL執行器學習的表格預訓練模型,專為表格問答任務設計。
問答系統
Transformers 英語

T
microsoft
162
11
Tapex Large Sql Execution
MIT
TAPEX是一種通過神經SQL執行器學習實現表格預訓練的模型,基於BART架構,專為表格推理任務設計。
大型語言模型
Transformers 英語

T
microsoft
68
17
Tapex Large Finetuned Wtq
MIT
TAPEX是一種通過神經SQL執行器學習的表格預訓練模型,基於BART架構,專為表格推理任務設計。
問答系統
Transformers 英語

T
microsoft
2,431
74
Tapex Large
MIT
TAPEX是一種通過神經SQL執行器學習實現表格預訓練的模型,基於BART架構,專為表格推理任務設計。
大型語言模型
Transformers 英語

T
microsoft
252
9
Tapex Large Finetuned Wikisql
MIT
TAPEX是一種通過神經SQL執行器學習的表格預訓練模型,基於BART架構,專為表格推理任務設計。
大型語言模型
Transformers 英語

T
microsoft
676
16
Bart Summarisation
Apache-2.0
基於BART-large架構的對話摘要模型,專門針對SAMSum對話數據集進行微調,能夠生成高質量的對話摘要。
文本生成
Transformers 英語

B
slauw87
4,225
59
Mbart Mlsum Automatic Summarization
MIT
基於mbart-large-50架構的新聞文章自動摘要模型,使用MLSUM法語新聞數據集微調
文本生成
Transformers 法語

M
lincoln
98
8
Indobart
MIT
IndoBART是基於BART模型的先進印尼語語言模型,專為印尼語相關的自然語言處理任務設計。
大型語言模型
Transformers

I
indobenchmark
226
2
Keybart
Apache-2.0
KeyBART是基於BART架構預訓練的文本生成模型,專門用於生成符合CatSeqD格式的串聯關鍵短語序列。
大型語言模型
Transformers

K
bloomberg
737
40
Tapex Base
MIT
TAPEX是一種通過神經SQL執行器學習的表格預訓練模型,能夠處理表格推理任務。
大型語言模型
Transformers 英語

T
microsoft
799
43
Tapex Large Finetuned Tabfact
MIT
TAPEX是一種通過神經SQL執行器學習的表格預訓練模型,基於BART架構,專為表格推理任務設計。
大型語言模型
Transformers 英語

T
microsoft
2,255
8
Tapex Base Finetuned Tabfact
MIT
TAPEX是一種通過神經SQL執行器學習進行表格預訓練的模型,專注於表格推理能力。
大型語言模型
Transformers 英語

T
microsoft
28
0
Indobart V2
MIT
IndoBART-v2 是基於 BART 架構的印尼語語言模型,專為自然語言生成任務設計。
大型語言模型
Transformers 其他

I
indobenchmark
983
12
Bart Base Detox
基於BART架構的文本淨化模型,能夠將有毒文本改寫為中性表達
機器翻譯
Transformers 英語

B
s-nlp
2,039
11
Tts Hubert Cluster Bart Base
Apache-2.0
基於HuBERT和BART架構的語音處理模型,支持自動語音識別(ASR)任務
語音識別
Transformers 支持多種語言

T
voidful
24
1
Tapex Base Finetuned Wikisql
MIT
TAPEX是一種通過神經SQL執行器學習實現表格預訓練的模型,基於BART架構,專為表格問答任務設計。
問答系統
Transformers 英語

T
microsoft
242
18
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98