Mt5 Small Finetuned Norwegian
Apache-2.0
基於google/mt5-small在挪威語數據集上微調的文本摘要生成模型
文本生成
Transformers

M
GloriaABK1
20
0
Cupidon Small Ro
Apache-2.0
基於sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2微調的羅馬尼亞語語義理解模型,體積小巧但性能卓越
文本嵌入
Transformers 其他

C
BlackKakapo
25
2
Deepseek R1 Distill Qwen 7B Japanese
Apache-2.0
這是DeepSeek R1模型的日語版本,專門針對日語推理任務進行微調,能夠可靠且準確地以日語響應提示。
大型語言模型
Transformers 日語

D
lightblue
1,067
30
Nllb English Somali V4.0
該模型是基於facebook/nllb-200-distilled-600M微調的英語-索馬里語翻譯模型,在評估集上取得了38.1的BLEU分數。
機器翻譯
Transformers

N
adeptschneiderthedev
14
1
Mt5 Small Finetuned Amazon En Es
Apache-2.0
基於google/mt5-small模型在未知數據集上微調的版本,主要用於英語到西班牙語的摘要生成任務。
文本生成
Transformers

M
kperron1
16
0
Mt5 Small Finetuned Amazon En Es
Apache-2.0
基於google/mt5-small在亞馬遜英西數據集上微調的摘要生成模型,支持英語到西班牙語的文本摘要任務。
機器翻譯
Transformers

M
QHWU1228
17
0
Norwegian Nli Triplets C
Apache-2.0
基於jina-embeddings-v2-base-en微調的挪威語句子嵌入模型,專注於關鍵詞文檔搜索和句子相似度任務
文本嵌入 其他
N
fine-tuned
24
1
M2m100 1.2B Ft Ru Kbd 63K
MIT
基於facebook/m2m100_1.2B模型在俄語-卡巴爾達語數據集上微調的翻譯模型
機器翻譯
Transformers 其他

M
anzorq
39
1
Mbart Large 50 En Es Translation Lr 1e 05 Weight Decay 0.1
MIT
基於facebook/mbart-large-50微調的英語-西班牙語翻譯模型,在評估集上表現出色。
機器翻譯
Transformers

M
DrishtiSharma
20
0
Mgpt 1.3B Mongol
MIT
蒙古語 mGPT 1.3B 是專門為蒙古語設計的13億參數語言模型,支持蒙古語相關的自然語言處理任務。
大型語言模型
Transformers 支持多種語言

M
ai-forever
1,722
2
Eng Guj Sim2b
基於facebook/mbart-large-50-many-to-many-mmt微調的英語-古吉拉特語翻譯模型
機器翻譯
Transformers

E
hopkins
4
0
Summarization Hi Mbart Large 50 Hungarian
MIT
該模型是基於mBART-large-50微調的匈牙利語摘要生成模型,專門用於生成匈牙利語文本的抽象摘要。
文本生成
Transformers 其他

S
NYTK
185
1
Mt5 Multilingual XLSum Finetuned Fa Finetuned Ar
基於mT5的多語言摘要生成模型,專門針對阿拉伯語在XLSum數據集上進行了微調
文本生成
Transformers 阿拉伯語

M
ahmeddbahaa
13
1
Mt5 Multilingual XLSum Sumarizacao PTBR
該模型是基於mT5_multilingual_XLSum在未知數據集上微調得到的葡萄牙語文本摘要模型
文本生成
Transformers

M
GiordanoB
23
2
Mt5 Multilingual XLSum Finetuned Fa
該模型是基於mT5_multilingual_XLSum在波斯語摘要數據集pn_summary上微調的生成式摘要模型
文本生成
Transformers 其他

M
ahmeddbahaa
51
2
Xlsr 53 Bemba 5hrs
Apache-2.0
基於facebook/wav2vec2-large-xlsr-53微調的語音識別模型,支持Bemba語
語音識別
Transformers

X
csikasote
25
0
Icebert Xlmr Ic3
基於RoBERTa-base架構的冰島語掩碼語言模型,通過xlm-roberta-base微調訓練而成
大型語言模型
Transformers 其他

I
mideind
24
0
Mt5 Small Finetuned Amazon En Zh TW
Apache-2.0
該模型是基於google/mt5-small在亞馬遜數據集上微調的文本摘要模型,支持英文到繁體中文的摘要生成任務。
文本生成
Transformers

M
peterhsu
28
0
Marathi Bert
MahaBERT是一個基於多語言BERT模型微調的馬拉地語BERT模型,適用於處理馬拉地語自然語言處理任務。
大型語言模型
Transformers 其他

M
l3cube-pune
254
0
Wav2vec2 Large Xlsr 129 Turkish Colab
基於facebook/wav2vec2-large-xlsr-129模型在通用語音數據集上微調的土耳其語語音識別模型
語音識別
Transformers

W
patrickvonplaten
16
0
Cross En De Roberta Sentence Transformer
MIT
一個支持英語和德語的跨語言句子嵌入模型,可用於語義文本相似性、語義搜索和釋義挖掘等任務。
文本嵌入
Transformers 支持多種語言

C
T-Systems-onsite
7,305
65
Wav2vec2 100m Mls German Ft 2
Apache-2.0
基於facebook/wav2vec2-xls-r-100m模型在MULTILINGUAL_LIBRISPEECH - GERMAN數據集上微調的德語自動語音識別模型
語音識別
Transformers

W
patrickvonplaten
23
0
Mt5 Small Finetuned Amazon En Es
Apache-2.0
基於google/mt5-small微調的英西翻譯模型,專為亞馬遜相關文本優化
機器翻譯
Transformers

M
huggingface-course
398
7
Mbart Large En Ro
MIT
基於mbart-large-cc25架構的英語-羅馬尼亞語翻譯模型,在wmt_en_ro數據集上微調
機器翻譯
Transformers 支持多種語言

M
facebook
15.47k
1
Mt5 Small German Finetune Mlsum
這是一個基於mT5-small架構、在德語MLSUM數據集上微調的文本摘要生成模型
文本生成
Transformers 德語

M
ml6team
1,040
10
Xlm Roberta Base Finetuned Luganda
基於XLM-RoBERTa在盧幹達語文本上微調的模型,在命名實體識別任務上表現優於基礎模型
大型語言模型
Transformers

X
Davlan
23
1
Bert Base Multilingual Cased Finetuned Swahili
基於多語言BERT模型微調的斯瓦希里語專用模型,在文本分類和命名實體識別任務上表現優於原始多語言BERT。
大型語言模型
Transformers

B
Davlan
64
3
Bert Base Multilingual Cased Finetuned Igbo
這是一個針對伊博語優化的BERT模型,通過在多語言BERT基礎上微調得到,在伊博語文本處理任務中表現優於基礎多語言模型。
大型語言模型
Transformers

B
Davlan
16
1
Mbart50 Large Yor Eng Mt
基於mbart-large-50微調的約魯巴語到英語機器翻譯模型
機器翻譯
Transformers

M
Davlan
24
0
Xlm Roberta Base Finetuned Hausa
基於XLM-RoBERTa微調的豪薩語語言模型,在文本分類和命名實體識別任務上表現優於基礎模型
大型語言模型
Transformers

X
Davlan
32
1
Bert Base Multilingual Cased Finetuned Amharic
基於多語言BERT微調的阿姆哈拉語模型,通過替換詞彙表並微調獲得,在NER任務上優於原生多語言模型
大型語言模型
Transformers

B
Davlan
196
2
Translation Mt5 Small 128 En Hu
Apache-2.0
基於mT5-small微調的英匈神經機器翻譯模型,在OPUS語料庫上訓練
機器翻譯
Transformers 支持多種語言

T
NYTK
35
2
Bert Base Multilingual Cased Finetuned Hausa
這是一個基於多語言BERT模型微調的豪薩語BERT模型,在文本分類和命名實體識別任務上表現優於原始多語言BERT。
大型語言模型
B
Davlan
43
1
Xlm Roberta Large Finetuned Conll02 Dutch
基於XLM-RoBERTa-large模型在荷蘭語CoNLL-2002數據集上微調的多語言詞元分類模型
序列標註 支持多種語言
X
FacebookAI
754
4
Xlm Roberta Base Finetuned Amharic
基於XLM-RoBERTa在阿姆哈拉語文本上微調的模型,在命名實體識別任務上表現優於原始XLM-RoBERTa
大型語言模型
Transformers

X
Davlan
81
1
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98