# 低資源語言處理

Mbart50 Saraiki News Summarization
MIT
基於mBART-50多語言模型微調的薩拉基語新聞摘要模型,支持從薩拉基語新聞內容生成簡潔摘要
文本生成 Transformers 其他
M
SaraikiAI
22
0
Aidman Wav2vec2 Large Xls R 300m Irish Colab
Apache-2.0
這是一個基於facebook/wav2vec2-xls-r-300m在通用語音數據集上微調的語音識別模型,支持愛爾蘭語。
語音識別 Transformers
A
AIDman
110
0
Unt 8b
Apache-2.0
駱駝模型是一個基於變換器架構的文本生成模型,支持阿塞拜疆語,採用強化學習進行訓練。
大型語言模型 Transformers 其他
U
omar07ibrahim
33
2
Whisper Fleurs Small Te In
Apache-2.0
該模型是基於OpenAI的Whisper Small在FLEURS數據集上微調的版本,專注於語音識別任務,支持泰盧固語(te)。
語音識別 Transformers 其他
W
jonahdvt
14
1
Mt5 Sinhala News Finetunedv3
基於Google的mT5-small模型在僧伽羅語新聞數據上微調的文本摘要模型
文本生成 Transformers 其他
M
kbrinsly7
159
0
Kyrgyzbert
Apache-2.0
基於BERT架構的小規模語言模型,專為吉爾吉斯語自然語言處理應用設計。
大型語言模型 Transformers 其他
K
metinovadilet
79
2
Bodo Bart Large Summ
Apache-2.0
該模型是基於facebook/bart-large在Bodo法律摘要數據集上微調的文本摘要生成模型
文本生成 Transformers
B
Mwnthai
19
1
Roberta Uz
MIT
基於XLM-RoBERTa-large微調的烏茲別克語命名實體識別模型,支持21種實體類型識別
序列標註 Transformers 其他
R
mustafoyev202
21
1
Whisper Base Pl
Apache-2.0
基於OpenAI Whisper-base模型在波蘭語Common Voice 17.0數據集上微調的語音識別模型
語音識別 Transformers 其他
W
marcsixtysix
27
1
Mt5 Large HuAMR
Apache-2.0
基於google/mt5-large在匈牙利語AMR數據集上微調的抽象意義表示解析器
大型語言模型 Transformers 其他
M
SZTAKI-HLT
33
1
Turkish Medical Question Answering
MIT
基於BERT架構微調的土耳其語醫療領域問答模型,專門用於從醫療文本中提取答案
問答系統 Transformers 其他
T
kaixkhazaki
20
1
Shark Finetuned Kde4 Ar En
Apache-2.0
基於Helsinki-NLP/opus-mt-ar-en在kde4數據集上微調的阿拉伯語到英語翻譯模型
機器翻譯 Transformers
S
ahmedshark
22
1
Opus Mt Tc Bible Big Deu Eng Fra Por Spa Mul
Apache-2.0
支持超過100種語言的通用Transformer模型,適用於多種自然語言處理任務
大型語言模型 Transformers 支持多種語言
O
Helsinki-NLP
203
1
Romaneng2nep V3
Apache-2.0
該模型是基於google/mt5-small微調的羅馬化尼泊爾語到尼泊爾語文本的轉換模型
機器翻譯 Transformers 支持多種語言
R
syubraj
29
1
Bntqa Mbart
MIT
BnTQA-mBart 是一個基於 mBART 架構的低資源孟加拉語表格問答模型,專門用於處理孟加拉語的結構化表格數據問題回答任務。
問答系統 其他
B
vaishali
17
0
Bert Base Turkish Uncased Ner
MIT
基於dbmdz/bert-base-turkish-uncased微調的土耳其語命名實體識別模型
序列標註 Transformers 其他
B
saribasmetehan
54
5
Shlm Grc En
MIT
該模型為古希臘語和英語文本創建共享向量空間中的句子嵌入,基於改進的HLM架構並通過多語言知識蒸餾方法訓練。
文本嵌入 Transformers 支持多種語言
S
kevinkrahn
62
2
Mms Tts Div Finetuned Md F02
這是一個基於Transformer架構的語音模型,支持馬爾代夫語(Dhivehi)的語音處理任務。
大型語言模型 Transformers 其他
M
alakxender
28
0
Mt5 XLSUM Ua News
基於mT5多語言大模型在烏克蘭語新聞數據集上微調的標題生成模型,能夠為烏克蘭語新聞文章生成簡潔準確的標題。
文本生成 Transformers 其他
M
yelyah
110
1
Whisper Large V3 Telugu Romanized
Apache-2.0
基於openai/whisper-large-v3微調的羅馬化泰盧固語語音識別模型
語音識別 Transformers 其他
W
jayasuryajsk
18
1
Health Qa Myanmar Mgpt Finetune V2
這是一個基於Transformer架構的緬甸語文本生成模型,支持多種文本生成任務。
大型語言模型 Transformers 其他
H
Turtle344
26
1
Whisper Sinhala Audio To Text
Apache-2.0
基於openai/whisper-small微調的僧伽羅語語音識別模型,支持將僧伽羅語語音轉換為文本。
語音識別 Transformers
W
AqeelShafy7
229
2
Urdu Emotions Whisper Medium
Apache-2.0
基於Whisper-medium微調的烏爾都語情感識別模型,在評估集上準確率達91.67%
音頻分類 Transformers
U
Pak-Speech-Processing
43
0
Mizbert
Apache-2.0
MizBERT是基於米佐語文本語料庫預訓練的掩碼語言模型(MLM),採用BERT架構,能有效學習米佐語詞彙的上下文表徵。
大型語言模型 Transformers
M
robzchhangte
36
3
Whisper Small Kyrgyz
基於Whisper架構的吉爾吉斯語自動語音識別(ASR)模型,由吉爾吉斯共和國總統下屬國家語言與語言政策全國委員會支持開發
語音識別 Transformers 其他
W
UlutSoftLLC
841
4
Kubert Central Kurdish BERT Model
KuBERT是基於BERT框架的中庫爾德語模型,旨在解決庫爾德語資源匱乏問題,提升計算語言學能力。
大型語言模型 Transformers
K
asosoft
128.71k
5
Gibberish Sentence Detection Model Tr
MIT
該模型基於BERT架構微調,用於檢測土耳其語中的無意義文本(如隨機字符組合)。
文本分類 Transformers 其他
G
TURKCELL
40
6
English To Urdu Translation Mbart
這是一個針對英語到烏爾都語翻譯任務微調的mBART模型,基於facebook/mbart-large-50架構,在定製數據集上訓練完成。
機器翻譯 Transformers 支持多種語言
E
abdulwaheed1
106
2
Mt5 Small Amharic Text Summaization
Apache-2.0
基於google/mt5-small微調的阿姆哈拉語文本摘要模型,適用於新聞文章標題生成任務。
文本生成 Transformers
M
yohannesahunm
61
0
Nllb 200 3.3B Ct2 Int8
一個支持超過100種語言和文字系統的多語言處理模型,涵蓋從主流語言到多種方言和少數民族語言
大型語言模型 Transformers 支持多種語言
N
OpenNMT
65
5
Mmlw Roberta Base
Apache-2.0
基於RoBERTa架構的波蘭語句子嵌入模型,專注於句子相似度計算和特徵提取任務。
文本嵌入 Transformers 其他
M
sdadas
106.30k
3
Nllb Clip Base Siglip
NLLB-CLIP-SigLIP 是一個結合了NLLB模型的文本編碼器和SigLIP模型的圖像編碼器的多語言視覺語言模型,支持201種語言。
文本生成圖像
N
visheratin
478
1
Glotlid
Apache-2.0
一個支持多種語言的模型,特別關注非洲、亞洲和歐洲的少數民族語言。
大型語言模型 支持多種語言
G
cis-lmu
12.20k
61
Serengeti E250
SERENGETI是一個覆蓋517種非洲語言及方言的大規模多語言預訓練模型,專注於填補非洲語言技術資源匱乏的空白。
大型語言模型 Transformers 其他
S
UBC-NLP
42
6
M2m100 1.2B Ft Ru Kbd 63K
MIT
基於facebook/m2m100_1.2B模型在俄語-卡巴爾達語數據集上微調的翻譯模型
機器翻譯 Transformers 其他
M
anzorq
39
1
Sinhala Roberta Sentence Transformer
這是一個基於sentence-transformers的模型,用於將僧伽羅語句子映射到768維向量空間,支持句子相似度計算和語義搜索等任務。
文本嵌入 Transformers
S
Ransaka
16
0
Eng Nah Svo Translation
這是一個基於未知數據集從頭開始訓練的翻譯模型,支持英語到納瓦特爾語的翻譯任務。
機器翻譯 Transformers
E
aatherton2024
16
0
MLEAFIT Es2ptt5
Apache-2.0
這是一個基於T5-small架構微調的西班牙語到葡萄牙語翻譯模型,在tatoeba數據集上訓練,評估BLEU得分為11.2994。
機器翻譯 Transformers
M
jdmartinev
38
1
Bodo Roberta Base
MIT
這是一個基於RoBERTa架構的博多語配置模型,包含博多語的字節級BPE分詞器和RoBERTa基礎配置。
大型語言模型 Transformers
B
alayaran
26
1
Whisper Small Haitian
Apache-2.0
該模型是基於whisper-small-cv11-french微調的版本,針對海地克里奧爾語進行優化的語音識別模型
語音識別 Transformers
W
YassineKader
18
2
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase