# 編碼器-解碼器架構

T0 3B
Apache-2.0
T0++是基於T5架構的自然語言處理模型,通過多任務提示訓練實現零樣本任務泛化能力,在多種NLP任務上超越GPT-3且體積更小。
大型語言模型 Transformers 英語
T
bigscience
3,723
100
Mrt5 Large
MrT5是基於ByT5改進的高效字節級語言模型,通過動態令牌合併技術縮短輸入序列長度約50%
大型語言模型 Transformers 支持多種語言
M
stanfordnlp
33
2
Shuka 1
Shuka v1 是一款原生支持印度語言音頻理解的語言模型,結合自主研發的音頻編碼器和Llama3-8B-Instruct解碼器,支持多語言零樣本問答任務。
音頻生成文本 Transformers 支持多種語言
S
sarvamai
729
54
TURNA GGUF
其他
TURNA是一個土耳其語編碼器-解碼器語言模型,專注於增強理解和生成能力。
大型語言模型 Transformers
T
helizac
159
3
Comprehend It Multilingual T5 Base
Apache-2.0
基於mT5-base的多語言零樣本分類模型,支持近100種語言的雙向文本分類
文本分類 Transformers 支持多種語言
C
knowledgator
420
25
Pile T5 Base
Pile-T5基礎版是基於T5x庫在The Pile數據集上訓練的編碼器-解碼器模型,通過MLM目標訓練了200萬步,約2萬億token。
大型語言模型 Transformers 英語
P
EleutherAI
50
19
Pile T5 Xxl
Pile-T5 XXL是基於T5x庫在The Pile數據集上訓練的編碼器-解碼器模型,採用類似原始T5模型的MLM目標,訓練了200萬步(約2萬億token)。
大型語言模型 Transformers 英語
P
EleutherAI
44
28
Medicap
Apache-2.0
MedICap是一款醫療影像描述生成編碼器-解碼器模型,在ImageCLEFmedical Caption 2023挑戰賽中榮獲冠軍。
圖像生成文本 Transformers
M
aehrc
475
2
Pile T5 Large
Pile-T5 Large 是基於 T5x 庫在 The Pile 數據集上訓練的編碼器-解碼器模型,主要用於英語文本到文本生成任務。
大型語言模型 Transformers 英語
P
EleutherAI
112
15
T5 Small Wikilingua Vietnamese
MIT
基於Transformer編碼器-解碼器架構的越南語最先進輕量級預訓練模型,專注於文本摘要任務。
文本生成 Transformers 其他
T
minhtoan
43
3
Vlt5 Base Keywords
基於谷歌Transformer架構的編碼器-解碼器關鍵詞生成模型,支持波蘭語和英語,主要用於從科學論文摘要中提取關鍵詞。
文本生成 Transformers 支持多種語言
V
Voicelab
6,736
55
Vit5 Large
MIT
基於Transformer架構的越南語先進預訓練編碼器-解碼器模型
大型語言模型 其他
V
VietAI
1,444
5
Encoder Decoder Es
基於cc_news_es_titles數據集微調的編碼器-解碼器模型,用於西班牙語文本處理任務
大型語言模型 Transformers
E
amazon-sagemaker-community
121
0
Wav2vec2 Large Xlsr 53 German Gpt2
Apache-2.0
這是一個基於MOZILLA-FOUNDATION/COMMON_VOICE_7_0德語數據集訓練的自動語音識別編碼器-解碼器模型,結合了Wav2Vec2和GPT2架構的優勢。
語音識別 Transformers 德語
W
jsnfly
28
2
Roberta2roberta L 24 Wikisplit
Apache-2.0
這是一個基於RoBERTa架構的編碼器-解碼器模型,專門針對句子拆分任務進行微調。
文本生成 Transformers 英語
R
google
16
8
Roberta2roberta L 24 Cnn Daily Mail
Apache-2.0
基於RoBERTa-Large初始化的編碼器-解碼器模型,專為摘要生成任務設計,在CNN/DailyMail數據集上微調。
文本生成 Transformers 英語
R
google
128
6
Rut5 Base
ruT5-base是由SberDevices開發的俄語文本到文本生成模型,基於T5架構,參數量2.22億,訓練數據量300GB。
大型語言模型 Transformers 其他
R
ai-forever
5,946
18
T0pp
Apache-2.0
T0pp是基於T5架構的110億參數編碼器-解碼器模型,在英語自然語言提示的零樣本任務泛化上表現優異,超越GPT-3且體積更小。
大型語言模型 Transformers 英語
T
bigscience
7,426
401
Bert2bert Turkish Paraphrase Generation
基於Bert2Bert架構的土耳其語釋義生成模型,用於生成語義相同但表達不同的句子。
文本生成 Transformers 其他
B
ahmetbagci
118
12
Bert Mini2bert Mini Finetuned Cnn Daily Mail Summarization
Apache-2.0
這是一個基於BERT-mini架構的編碼器-解碼器模型,專門針對CNN/Dailymail數據集進行微調,用於文本摘要生成任務。
文本生成 Transformers 英語
B
mrm8488
140
5
T0
Apache-2.0
T0++是一個在英語自然語言提示上展示零樣本任務泛化能力的編碼器-解碼器模型,在許多任務上優於GPT-3,同時體積小了16倍。
大型語言模型 Transformers 英語
T
bigscience
2,560
83
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase