# 序列到序列

Khmer Mt5 Summarization
MIT
這是一個針對高棉語文本摘要任務微調的mT5模型,基於谷歌的mT5-small模型,在高棉語文本數據集上微調,能夠生成簡潔且語義豐富的高棉語文本摘要。
文本生成 Transformers 其他
K
songhieng
58
2
M2m100 1.2B Ctranslate2
MIT
M2M100是一個多語言編碼器-解碼器模型,支持100種語言之間的直接翻譯,參數規模12億。
機器翻譯 支持多種語言
M
entai2965
92
3
Mt5 Small Finetuned Gazeta Ru
Apache-2.0
基於google/mt5-small在gazeta數據集上微調的俄語摘要生成模型
文本生成 TensorBoard
M
sansmislom
33
0
T5 Query Reformulation RL
Apache-2.0
這是一個專為搜索查詢改寫設計的生成模型,採用序列到序列架構和強化學習框架來生成多樣化且相關的查詢改寫。
大型語言模型 Transformers 支持多種語言
T
prhegde
366
6
Sst T5 Base
Apache-2.0
基於T5-base模型在SST數據集上微調的文本生成模型
大型語言模型 Transformers
S
kennethge123
17
2
Darija To English
Apache-2.0
基於Helsinki-NLP/opus-mt-ar-en微調的阿拉伯方言拉丁字母轉英語翻譯模型
機器翻譯 Transformers
D
centino00
34
6
Bart Large Cnn Samsum
Apache-2.0
基於BART-large架構微調的對話摘要生成模型,在SAMSum數據集上訓練
文本生成 Transformers
B
AdamCodd
18
2
Inclusively Reformulation It5
基於IT5-large微調的意大利語序列到序列模型,專為包容性語言改寫任務設計
機器翻譯 Transformers
I
E-MIMIC
70
1
Kot5 Base
KoT5是一個基於T5架構的韓英雙語文本生成模型,支持摘要生成和改寫生成等任務。
大型語言模型 支持多種語言
K
wisenut-nlp-team
296
1
Autotrain Fr En Translate 51410121895
這是一個基於Transformers的法語到英語的文本翻譯模型,使用AutoTrain訓練。
機器翻譯 Transformers 支持多種語言
A
ybanas
24
3
Banglat5 Small
基於序列到序列Transformer架構的孟加拉語預訓練模型,專為自然語言生成任務優化
大型語言模型 Transformers 其他
B
csebuetnlp
510
2
Bart Base Cnn Swe
MIT
基於BART架構的瑞典語摘要模型,在CNN Daily瑞典語數據集上微調
文本生成 Transformers 其他
B
Gabriel
31
1
Banglat5
BanglaT5是基於Span Corruption目標預訓練的孟加拉語序列到序列變換器模型,在多項孟加拉語自然語言生成任務中達到最先進性能。
大型語言模型 Transformers 其他
B
csebuetnlp
1,102
15
M2m100 418M
MIT
M2M100是一個多語言編碼器-解碼器模型,支持100種語言的9900個翻譯方向
機器翻譯 支持多種語言
M
facebook
1.6M
299
Arabic T5 Small
基於T5v1.1小型架構訓練的阿拉伯語語言模型,融合了多個阿拉伯語數據集進行訓練
大型語言模型 阿拉伯語
A
flax-community
279
10
Bart Large Xsum Samsum
Apache-2.0
這是一個基於BART架構的序列到序列模型,專門用於對話摘要生成任務。
文本生成 Transformers 英語
B
lidiya
10.96k
38
Bart Paraphrase
Apache-2.0
一個基於3個改寫數據集微調的大型BART序列到序列(文本生成)模型,用於句子改寫任務。
文本生成 Transformers 英語
B
eugenesiow
2,334
30
Kobart Base V1
MIT
KoBART是基於BART架構的韓語預訓練模型,適用於多種韓語自然語言處理任務。
大型語言模型 Transformers 韓語
K
gogamza
2,077
1
It5 Base News Summarization
Apache-2.0
基於IT5基礎模型微調的意大利語新聞摘要生成模型,支持從新聞文本中提取關鍵信息生成簡潔摘要。
文本生成 其他
I
gsarti
405
5
Bart Squadv2
這是一個針對問答任務在SQuADv2數據集上微調的bart-large模型,基於BART架構,適用於自然語言理解和生成任務。
問答系統 Transformers
B
aware-ai
96
1
It5 Base
Apache-2.0
IT5是首個針對意大利語進行大規模序列到序列Transformer模型預訓練的嘗試,基於T5模型架構。
大型語言模型 其他
I
gsarti
389
24
Wmt21 Dense 24 Wide X En
MIT
47億參數的多語言編碼器-解碼器模型,支持7種語言到英語的翻譯
機器翻譯 Transformers 支持多種語言
W
facebook
17
13
Bart Base Samsum
Apache-2.0
該模型是基於BART架構,在SAMSum對話數據集上微調的抽象文本摘要模型,專門用於生成對話摘要。
文本生成 Transformers 英語
B
lidiya
77
4
It5 Small
Apache-2.0
IT5是首個針對意大利語進行大規模序列到序列Transformer模型預訓練的模型家族,遵循原始T5模型的方法。
大型語言模型 其他
I
gsarti
220
2
It5 Large News Summarization
Apache-2.0
基於IT5大模型在Fanpage和Il Post語料庫上微調的意大利語新聞摘要模型
文本生成 其他
I
gsarti
47
1
It5 Large
Apache-2.0
IT5是首個針對意大利語大規模預訓練的序列到序列Transformer模型家族,遵循T5模型的方法。
大型語言模型 其他
I
gsarti
37
1
Bart Base Cnn
Apache-2.0
本模型是在CNN/DailyMail摘要數據集上微調的bart-base模型,擅長文本摘要生成任務
文本生成 Transformers 英語
B
ainize
749
15
Bart Base Chinese
面向中文理解與生成的預訓練非平衡Transformer模型,支持文本到文本生成任務
大型語言模型 Transformers 中文
B
fnlp
6,504
99
It5 Small Wiki Summarization
Apache-2.0
基於WITS數據集微調的IT5 Small模型,專門用於意大利語維基百科內容的摘要生成任務。
文本生成 其他
I
gsarti
32
0
Bart Base
Apache-2.0
BART是一種結合雙向編碼器和自迴歸解碼器的Transformer模型,適用於文本生成和理解任務。
大型語言模型 英語
B
facebook
2.1M
183
It5 Base Oscar
Apache-2.0
首個針對意大利語進行大規模序列到序列Transformer模型預訓練的項目,基於OSCAR語料庫訓練
大型語言模型 其他
I
gsarti
19
0
Mbart Large 50 Finetuned Opus Pt En Translation
該模型是基於mBART-50大模型在opus100數據集上針對神經機器翻譯(NMT)任務微調的葡萄牙語-英語翻譯模型
機器翻譯 Transformers 支持多種語言
M
Narrativa
126
5
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase