Openba V1 Based
Apache-2.0
OpenBA 是一個開源的 150 億參數雙語非對稱序列到序列模型,從頭開始預訓練。
大型語言模型
Transformers 支持多種語言

O
OpenNLG
94
10
Question Decomposer T5
這是一個基於T5-base的序列到序列模型,專門用於將複雜問題分解為多個子問題。
文本生成 英語
Q
thenHung
317
4
Romaneng2nep V3
Apache-2.0
該模型是基於google/mt5-small微調的羅馬化尼泊爾語到尼泊爾語文本的轉換模型
機器翻譯
Transformers 支持多種語言

R
syubraj
29
1
Flan T5 Base Samsum
Apache-2.0
該模型是基於google/flan-t5-base在samsum對話摘要數據集上微調的版本,專門用於生成對話摘要任務。
文本生成
Transformers

F
sharmax-vikas
26
0
Sanskrit To English
Apache-2.0
基於T5-small微調的梵語-英語翻譯模型,在itihasa數據集上訓練
機器翻譯
Transformers

S
ubermenchh
81
2
T5 Small Aslg Pc12
Apache-2.0
該模型是在aslg_pc12數據集上對t5-small進行微調的版本,主要用於手語翻譯任務。
機器翻譯
Transformers

T
HamdanXI
22
0
Indobart V2 Amr To Text Linearized Penman Ilmy Epochs 3 With Lemma And Upos And Voice
MIT
該模型是基於indobenchmark/indobart-v2微調的版本,用於AMR到文本的轉換任務。
大型語言模型
Transformers

I
abdiharyadi
46
1
Reastap Large Finetuned Wikisql
ReasTAP是基於表格推理的預訓練模型,通過合成推理示例注入表格推理技能,在WikiSQL數據集上進行了微調。
問答系統
Transformers 英語

R
Yale-LILY
27
1
Bart Large Xsum Finetuned Samsum V2
MIT
該模型是基於facebook/bart-large-xsum在samsum數據集上微調的文本摘要生成模型,擅長生成對話摘要。
文本生成
Transformers

B
amagzari
48
1
Marian Finetuned Kde4 En To Ja
Apache-2.0
基於Helsinki-NLP/opus-tatoeba-en-ja在kde4數據集上微調的英日翻譯模型
機器翻譯
Transformers

M
Hoax0930
43
0
M2m100 418M Finetuned Kde4 En To Pt BR
MIT
該模型是基於facebook/m2m100_418M在kde4數據集上微調的英語到巴西葡萄牙語翻譯模型
機器翻譯
Transformers

M
danhsf
6,528
1
It5 Efficient Small El32 News Summarization
Apache-2.0
基於IT5高效小型EL32架構的意大利語新聞摘要生成模型,在Fanpage和Il Post數據集上微調
文本生成 其他
I
gsarti
97
4
T5 Small Finetuned En To Ro Dataset 20 Input 64
Apache-2.0
基於T5-small模型在wmt16數據集上微調的英語到羅馬尼亞語翻譯模型
機器翻譯
Transformers

T
aretw0
14
0
Marian Finetuned Kde4 En To Zh TW
Apache-2.0
該模型是基於Helsinki-NLP/opus-mt-en-zh在kde4數據集上微調的英譯繁中翻譯模型,Bleu分數達39.0863。
機器翻譯
Transformers

M
peterhsu
38
2
Gpt2 Chinese Couplet
基於GPT2架構的中文對聯生成模型,由UER-py框架預訓練,支持生成符合傳統對聯格式的中文文本。
文本生成 中文
G
uer
491
10
Marian Finetuned Kde4 En To Fr
Apache-2.0
該模型是基於Helsinki-NLP/opus-mt-en-fr在kde4數據集上微調的英法翻譯模型,在評估集上取得了52.94的BLEU分數。
機器翻譯
Transformers

M
huggingface-course
55
5
Tts Hubert Cluster Bart Base
Apache-2.0
基於HuBERT和BART架構的語音處理模型,支持自動語音識別(ASR)任務
語音識別
Transformers 支持多種語言

T
voidful
24
1
T5 Small Finetuned En To Ro Epoch.04375
Apache-2.0
該模型是基於T5-small架構在wmt16數據集上微調的英語到羅馬尼亞語翻譯模型
機器翻譯
Transformers

T
aretw0
16
0
Squad Mbart Model
基於未知數據集從頭開始訓練的mbart模型,具體用途和特性需進一步補充
問答系統
Transformers

S
ZYW
18
0
Sber Rut5 Filler
Apache-2.0
這是一個支持俄語的文本處理模型,主要用於文本生成和文本補全任務。
大型語言模型
Transformers 其他

S
IlyaGusev
19
3
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98