Dsi Transformers Code T5 Base Python
Apache-2.0
基於Salesforce/codet5-base微調的代碼處理模型,專注於Python代碼相關任務
大型語言模型
Transformers

D
ngocnamk3er
342
1
T5 Small Finetuned Xsum
Apache-2.0
基於T5-small模型在XSum數據集上微調的文本摘要模型
文本生成
Transformers

T
bdwjaya
103
0
Chronos Bolt Base
Apache-2.0
Chronos-Bolt是一系列預訓練的時間序列預測模型,支持零樣本預測,基於T5編碼器-解碼器架構,訓練數據涵蓋近千億時間序列觀測點。
氣候模型
C
amazon
1.5M
42
Kazrush Ru Kk
Apache-2.0
kazRush-ru-kk 是一個基於T5配置的俄語到哈薩克語的翻譯模型,在多個開源平行數據集上訓練而成。
機器翻譯
Transformers 其他

K
deepvk
332
8
T5 Small Finetuned Hausa To Chinese
Apache-2.0
基於T5-small微調的豪薩語到中文翻譯模型,在BLEU評估指標上達到30.26分
機器翻譯
Transformers

T
Kumshe
21
1
Flan T5 Base Summarization Pt Br
MIT
基於FLAN-T5的葡萄牙語(巴西)文本摘要模型,經過指令微調優化
文本生成
Transformers 其他

F
PamelaBorelli
71
1
Sage Fredt5 Large
MIT
基於FRED-T5-large訓練的俄語拼寫檢查模型,可糾正拼寫、標點和大小寫錯誤
文本生成
Transformers 其他

S
ai-forever
189
14
T5 Translate En Ru Zh Large 1024
Apache-2.0
這是一個基於T5架構的多語言機器翻譯模型,支持英語、俄語和中文之間的互譯。
機器翻譯
Transformers 支持多種語言

T
utrobinmv
1,472
85
T5 Translate En Ru Zh Base 200
Apache-2.0
基於T5架構的多語言翻譯模型,支持俄語、中文和英語之間的雙向翻譯
機器翻譯
Transformers 支持多種語言

T
utrobinmv
500
10
Rut5 Base Summ Dialogsum
基於d0rj/rut5-base-summ微調的俄語對話摘要模型,在DialogSum數據集上訓練
文本生成
Transformers

R
Kekega
15
1
T5 Base Emojilm
基於T5架構的預訓練模型,能夠將英文句子轉化為表情符號序列
文本生成
Transformers 英語

T
KomeijiForce
406
4
Grammar T5
Apache-2.0
基於jfleg數據集構建的語法糾錯模型,採用t5-base架構,專注於英文語法修正。
大型語言模型
Transformers

G
vagmi
17
1
Flan T5 Base Opus En Id Id En
Apache-2.0
基於FLAN-T5架構的英印雙語翻譯模型,支持英語與印尼語之間的互譯
機器翻譯
Transformers 支持多種語言

F
muvazana
22
0
Long T5 Base Govreport
Apache-2.0
基於Long-T5架構的政府報告摘要生成模型,專門針對長文檔摘要任務進行優化
文本生成
Transformers 英語

L
AleBurzio
866
2
Comet Atomic En
基於T5架構的英文事件推理模型,用於分析事件的前提條件、影響、意圖和反應
大型語言模型
Transformers 英語

C
svjack
319
3
Ptt5 Base Summ Xlsum
MIT
基於PTT5微調的巴西葡萄牙語文本抽象摘要生成模型,支持新聞等多種文本的摘要生成。
文本生成
Transformers 其他

P
recogna-nlp
3,754
16
Longt5 Base Global Mediasum
基於google/long-t5-tglobal-base微調的文本摘要模型,在XSum和CNN/DailyMail數據集上表現良好。
文本生成
Transformers

L
nbroad
19
0
T5 Grammar Corruption
Apache-2.0
基於t5-base模型微調的語法糾錯模型,用於文本語法錯誤檢測與修正
機器翻譯
Transformers

T
juancavallotti
19
1
Molt5 Small
Apache-2.0
MOLT5-small 是一個基於預訓練模型的分子與自然語言轉換模型,能夠實現分子結構與自然語言描述之間的相互轉換。
分子模型
Transformers

M
laituan245
443
2
Molt5 Base
Apache-2.0
molt5-base 是一個基於 T5 架構的模型,專門用於分子與自然語言之間的翻譯任務。
機器翻譯
Transformers

M
laituan245
3,617
1
Kgt5 Wikikg90mv2
MIT
基於WikiKG90Mv2數據集訓練的T5模型,用於知識圖譜中的尾實體預測任務
知識圖譜
Transformers

K
apoorvumang
22
1
Keytotext Small
基於T5-small架構的關鍵詞生成文本模型,可將輸入關鍵詞轉換為連貫句子
文本生成
Transformers

K
gagan3012
20
0
T5 Paraphrase Paws Msrp Opinosis
Apache-2.0
這是一個基於T5-base架構的釋義模型,在PAWS、MSRP和Opinosis數據集上進行了微調,主要用於文本釋義和改寫任務。
機器翻譯 英語
T
ceshine
77
3
T5 Paraphrase Paws
基於T5架構的英語句子複述生成模型,使用Google PAWS數據集訓練
文本生成 英語
T
Vamsi
67.42k
38
T5 Weighter Cnndm En
MIT
基於T5-small架構的分類器,用於評估答案/問題組合的重要性,判斷答案是否足夠相關以出現在摘要中。
問答系統 支持多種語言
T
ThomasNLG
178
0
Triviaqa T5 Base
基於T5-base架構的瑣事問答模型,通過無上下文訓練實現閉卷式問答能力
問答系統
Transformers 英語

T
deep-learning-analytics
79
3
Rut5 Base Detox
基於ruT5-base訓練的俄語文本去毒模型,用於將有毒俄語文本轉換為中性表達。
機器翻譯
Transformers 其他

R
s-nlp
193
9
Byt5 Xxl
Apache-2.0
ByT5是谷歌T5的無分詞器版本,直接處理UTF-8字節序列,支持多語言文本處理,特別擅長處理噪聲數據。
大型語言模型
Transformers 支持多種語言

B
google
1,872
18
Gec T5 Small
Apache-2.0
基於T5-small架構的語法錯誤修正模型,用於自動檢測和修正英語文本中的語法錯誤。
大型語言模型
Transformers 英語

G
Unbabel
4,285
25
Ptt5 Large T5 Vocab
MIT
PTT5是基於BrWac語料庫預訓練的T5模型,專門針對葡萄牙語優化,提供多種尺寸和詞彙表選擇。
大型語言模型
Transformers 其他

P
unicamp-dl
45
2
T5 Small Ssm Nq
Apache-2.0
T5-small-ssm-nq是基於T5架構的小型閉卷問答模型,經過C4、維基百科和自然問題(NQ)數據集的預訓練和微調。
問答系統 英語
T
google
300
1
Rut5 Base Absum
MIT
這是一個基於T5架構並在多個數據集上微調的俄語抽象摘要生成模型,能夠生成簡潔準確的文本摘要。
文本生成
Transformers 其他

R
cointegrated
1,135
27
T5 Qa Squad2neg En
MIT
基於T5-small架構的問答系統模型,支持抽取式問答任務,可處理可回答與不可回答的情況
問答系統 支持多種語言
T
ThomasNLG
533
0
Plsum Base Ptt5
PLSUM 是一個針對葡萄牙語的多文檔抽取式摘要模型,能夠從多個文檔中提取關鍵句子並生成類似維基百科的摘要。
文本生成
Transformers

P
seidel
22
4
T5 Base Cnn Dm
Apache-2.0
該模型是基於T5架構微調的新聞摘要生成模型,訓練數據來自CNN/DailyMail新聞數據集。
文本生成 英語
T
flax-community
808
1
Indot5 Small
基於印尼語mC4數據集預訓練的T5小型模型,需微調後使用
大型語言模型
Transformers 其他

I
Wikidepia
83
0
T5 Base GNAD
基於T5-Base架構在德語數據集上微調的文本摘要生成模型
文本生成
Transformers 德語

T
Einmalumdiewelt
2,991
22
Ke T5 Base Ko
Apache-2.0
KE-T5是由韓國電子技術研究院開發的基於T5架構的韓英雙語文本生成模型,支持跨語言知識遷移的對話生成任務。
大型語言模型 韓語
K
KETI-AIR
208
9
T5 Vi En Base
基於T5架構的越南語-英語機器翻譯模型
機器翻譯
T
NlpHUST
17
2
Code Trans T5 Small Api Generation Multitask Finetune
基於t5 small架構預訓練的Java API推薦生成模型,通過多任務訓練和微調優化
大型語言模型
C
SEBIS
22
0
- 1
- 2
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98