# 低リソース言語

Latxa Llama 3.1 70B Instruct FP8
LatxaはLlama-3.1ベースの70Bパラメータのバスク語大規模言語モデルで、命令微調整とFP8量子化を施し、バスク語最適化のために設計されています
大規模言語モデル Transformers
L
HiTZ
988
1
Haitian Creole
MIT
これはハイチ・クレオール語のテキスト読み上げモデルで、jsbeaudry/haitian_creoleを基にファインチューニングされています。
音声合成 Transformers
H
jsbeaudry
172
1
Reranker Pho BLAI
Apache-2.0
これはApache-2.0ライセンスに基づくベトナム語テキストソートモデルで、主にベトナム語テキストのソートタスクを処理するために使用されます。
大規模言語モデル Safetensors その他
R
truong1301
21
0
Latxa Llama 3.1 8B Instruct
LatxaはLlama-3.1アーキテクチャに基づくバスク語命令ファインチューニング大規模言語モデルで、バスク語に最適化されており、複数のベンチマークテストで優れた性能を発揮します。
大規模言語モデル Transformers
L
HiTZ
1,827
9
Llama 3.1 Sherkala 8B Chat
Sherkalaは80億パラメータのカザフ語優先の多言語大規模言語モデルで、G42傘下のInceptionとMBZUAIが共同開発し、カザフ語、英語、ロシア語、トルコ語をサポートしています。
大規模言語モデル 複数言語対応
L
inceptionai
155
14
Masrawy English To Egyptian Arabic Translator V2.9
Helsinki-NLP/opus-mt-tc-big-en-arをファインチューニングした英語からエジプトアラビア語への翻訳モデル
機械翻訳 Transformers 複数言語対応
M
NAMAA-Space
177
8
NER Darija MAR FSBM
BERTアーキテクチャに基づく固有表現認識モデルで、モロッコアラビア語(Darija)テキスト内の人名、場所、組織などのエンティティを識別するために特別に設計されています。
シーケンスラベリング Transformers 複数言語対応
N
mohannad-tazi
15
1
Urdu Text To Speech Tts
MIT
microsoft/speecht5_ttsをファインチューニングしたウルドゥー語TTSモデル、トレーニングデータ量は少ない(4200文)、商用利用には再トレーニングが必要
音声合成 Transformers その他
U
HamzaSidhu786
46
2
M2M100 Sanskrit English
MIT
M2M100をファインチューニングしたサンスクリット語から英語への翻訳モデルで、Itihasaデータセットからのサンスクリット語叙事詩の翻訳内容を含んでいます。
機械翻訳 Transformers 複数言語対応
M
Swamitucats
269
1
Nllb 200 Wo Fr Distilled 600M
MIT
これはMetaのNLLB-200モデルをファインチューニングした機械翻訳モデルで、ウォロフ語とフランス語間の双方向翻訳タスク専用です。
機械翻訳 Transformers 複数言語対応
N
cifope
56
7
Speecht5 Tts Finetuned Nst Da
MIT
これはマイクロソフトのSpeechT5モデルをファインチューニングしたデンマーク語テキスト音声合成モデルで、デンマーク語音声合成に特化しています。
音声合成 Transformers その他
S
JackismyShephard
44
5
Cendol Llama2 7b Chat
Apache-2.0
仙都(Cendol)は、インドネシア語に対して微調整されたオープンソースの生成型大規模言語モデルの集合で、さまざまなアーキテクチャとパラメータ規模をカバーしています。
大規模言語モデル Transformers その他
C
indonlp
1,749
2
Sanskrit To English
Apache-2.0
T5-smallをファインチューニングしたサンスクリット語-英語翻訳モデル、itihasaデータセットでトレーニング
機械翻訳 Transformers
S
ubermenchh
81
2
Mms Tts Tir
Meta社が開発したティグリニャ語テキスト読み上げモデル、VITSアーキテクチャに基づき、高品質な音声合成をサポート
音声合成 Transformers
M
facebook
242
0
Mms Tts Fon
Meta社が開発したフォン語テキスト音声合成モデル、VITSアーキテクチャに基づき、フォン語テキストを自然な音声に変換
音声合成 Transformers
M
facebook
70
3
Bengali Bn To En
これはベンガル語を英語に翻訳するためのシーケンス・ツー・シーケンスモデルです。
機械翻訳 Transformers その他
B
shihab17
13
1
Latinbert
LatinBERTはBERTアーキテクチャに基づくラテン語事前学習言語モデルです
大規模言語モデル Transformers
L
pnadel
23
1
Model Translate En To Ar From 120k Dataset Ar En Th230111447
Apache-2.0
これはHelsinki-NLP/opus-mt-en-arをベースにファインチューニングした英語からアラビア語への翻訳モデルで、12万件のデータセットでトレーニングされ、Bleuスコアは20.6264です。
機械翻訳 Transformers
M
Shularp
52
1
Mt5 Base HunSum 1
Apache-2.0
mT5-baseアーキテクチャに基づくハンガリー語抽象要約モデル、HunSum-1データセットでトレーニング済み
テキスト生成 Transformers その他
M
SZTAKI-HLT
39
2
Indobert SQuAD
MIT
IndoBERTをファインチューニングしたインドネシア語QAモデル、SQuAD2.0データセットで訓練
質問応答システム Transformers
I
esakrissa
14
3
Microbert Coptic Mx
これはコプト語向けのMicroBERTモデルで、マスク言語モデリングとXPOSタグ付けの監視による事前学習が行われています。
大規模言語モデル Transformers その他
M
lgessler
141
0
Nllb 200 Distilled 600M
100以上の言語と文字をサポートする多言語処理モデルで、世界の主要な語族と文字システムをカバーしています。
大規模言語モデル Transformers 複数言語対応
N
facebook
483.68k
638
Ambert
MIT
Robertaアーキテクチャでトレーニングされたアムハラ語言語モデルで、さまざまな自然言語処理タスクに適しています。
大規模言語モデル Transformers
A
surafelkindu
57
1
Opus Mt Tc Big Zlw En
これは西スラブ語族(zlw)から英語(en)へのニューラル機械翻訳モデルで、OPUS-MTプロジェクトに属しています。
機械翻訳 Transformers 複数言語対応
O
Helsinki-NLP
361
0
Wav2vec2 Large Xls R 300m Ur
Apache-2.0
wav2vec2-large-xls-r-300mアーキテクチャに基づくウルドゥー語音声認識モデル、common_voiceデータセットでファインチューニング済み
音声認識 Transformers
W
anuragshas
20
0
Wav2vec2 Large Xlsr 53 Mongolian
Apache-2.0
facebook/wav2vec2-large-xlsr-53モデルをベースに、Common Voiceデータセットを使用してモンゴル語に対して微調整された自動音声認識モデルです。
音声認識 その他
W
anton-l
46
0
Xls R Eng
Apache-2.0
これはwav2vec2アーキテクチャに基づく小型のランダムなロバスト性を持つモデルで、MOZILLA - FOUNDATION/COMMON_VOICE_7_0 - ABデータセットでファインチューニングされ、自動音声認識タスクに使用されます。
音声認識 Transformers その他
X
mattchurgin
13
0
Mt5 Sinhalese English
Apache-2.0
mT5-baseモデルを微調整したシンハラ語-英語双方向翻訳モデル
機械翻訳 Transformers 複数言語対応
M
thilina
18
8
Wav2vec2 Large Xlsr 53 Irish
Apache-2.0
facebook/wav2vec2-large-xlsr-53モデルをベースに、Common Voiceデータセットでアイルランド語にファインチューニングした音声認識モデルです。
音声認識
W
cpierse
22
0
Wav2vec2 Base Lang Id
Apache-2.0
facebook/wav2vec2-baseをcommon_languageデータセットでファインチューニングした音声言語識別モデル
音声分類 Transformers
W
anton-l
3,470
7
Mongolian Gpt2
これはGPT2アーキテクチャに基づくモンゴル語テキスト生成モデルで、流暢なモンゴル語テキストを生成することを目的としています。
大規模言語モデル その他
M
flax-community
75
3
Wav2vec2 Xls R 300m Kh
これはクメール語の自動音声認識(ASR)のためのベースラインモデルで、クメール語音声認識タスクの基礎サポートを提供することを目的としています。
音声認識 Transformers
W
kongkeaouch
21
0
Wav2vec2 Xlsr Chuvash
Apache-2.0
このモデルはfacebook/wav2vec2-xls-r-1bをCommon Voice 8チュヴァシ語データセットでファインチューニングした自動音声認識モデルです
音声認識 Transformers その他
W
sammy786
23
0
Wav2vec2 Large Xls R 300m Guarani Small
Apache-2.0
このモデルはfacebook/wav2vec2-xls-r-300mを汎用音声データセットでファインチューニングしたバージョンで、グアラニー語音声認識をサポートしています。
音声認識 Transformers
W
jhonparra18
20
0
Wav2vec2 Large Xlsr 53 Lithuanian
Apache-2.0
facebook/wav2vec2-large-xlsr-53モデルを基に、Common Voiceデータセットを使用してリトアニア語にファインチューニングした自動音声認識モデルです。
音声認識 その他
W
anton-l
29
0
Takalane Tsn Roberta
MIT
これはツワナ語に特化したマスク言語モデルで、南アフリカの低リソース言語のNLP分野における性能向上を目的としています。
大規模言語モデル その他
T
jannesg
24
0
Wav2vec2 Large Xlsr 53 Kalmyk
Apache-2.0
これはWav2Vec2アーキテクチャに基づくカルムイク語自動音声認識モデルで、事前学習とファインチューニングを経ており、カルムイク語音声からテキストへの変換タスクをサポートします。
音声認識 Transformers その他
W
tugstugi
79
0
Wav2vec2 Xlsr 53 Pa In
Apache-2.0
facebook/wav2vec2-large-xlsr-53モデルを基にファインチューニングしたパンジャーブ語自動音声認識モデルで、16kHzサンプルレート入力をサポートします。
音声認識
W
anuragshas
19
0
Zabanshenas Roberta Base Mix
Apache-2.0
Zabanshenasは、Transformerベースのソリューションで、書面文書/テキストの最も可能性の高い言語を識別するために使用されます。
テキスト分類 Transformers 複数言語対応
Z
m3hrdadfi
23
10
Opus Mt Yo En
Apache-2.0
これはTransformerアーキテクチャに基づくヨルバ語から英語への機械翻訳モデルで、Helsinki-NLPチームによって開発されました。
機械翻訳 Transformers 複数言語対応
O
Helsinki-NLP
2,601
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase