# 低リソース言語モデル

Yugogpt Florida Q4 0.GGUF
MIT
YugoGPT-Florida はセルビア語に特化した大規模言語モデルで、テキスト生成タスクに焦点を当てています。
大規模言語モデル その他
Y
MarkoRadojcic
36
2
Ru Patents Ner
これはspaCyフレームワークに基づくロシア語特許固有表現認識モデルで、特許テキスト内の特定のエンティティタイプを識別することに特化しています。
シーケンスラベリング その他
R
Delicalib
37
1
Labess 7b Chat 16bit
Apache-2.0
Labess-7b-chat はチュニジア方言(Derja)向けに命令調整されたオープンソースモデルで、jais-adapted-7b-chat モデルを基に、チュニジア方言データセットを使用して継続的に事前学習されています。
大規模言語モデル Transformers アラビア語
L
linagora
120
3
Qwen2.5 1.5B TrSummarization Unsloth GGUF
Apache-2.0
Qwen2.5-1.5Bモデルを微調整した4ビット量子化バージョンで、トルコ語テキスト生成と要約タスクに特化
大規模言語モデル その他
Q
anilguven
29
0
Llama3.2 3b TrSummarization Unsloth GGUF
Apache-2.0
unsloth/Llama-3.2-3B-bnb-4bitをファインチューニングしたトルコ語テキスト生成モデルで、要約生成タスクに特化しています。
大規模言語モデル その他
L
anilguven
48
0
V1 Kurdana
21人のクルド人詩人による6116編の詩で訓練された詩生成モデル
大規模言語モデル Transformers その他
V
shkna1368
31
2
Latxa 7b V1.2
LatxaはLLaMA-2アーキテクチャに基づくバスク語大規模言語モデルで、低リソース言語向けに設計されており、42億トークンのバスク語コーパスで訓練されています
大規模言語モデル Transformers 複数言語対応
L
HiTZ
875
5
Burmesebert
ビルマ語-BERTはbert-large-uncasedをベースにしたバイリンガルマスク言語モデルで、英語とビルマ語をサポートしています。
大規模言語モデル Transformers 複数言語対応
B
jojo-ai-mst
20
2
Burmese GPT
MIT
Wai Yan博士によって開発されたビルマ語大規模言語モデルで、GPT-2アーキテクチャを基にファインチューニングされ、ビルマ語テキスト補完タスクに特化しています。
大規模言語モデル Transformers その他
B
WYNN747
35
7
Mistral 7b Yo Instruct
ヨルバ語のテキスト生成に特化したモデルで、複数のデータセットを使って微調整されています。
大規模言語モデル Transformers その他
M
seyabde
18
2
Gpt2 Base Fa
GPT-2アーキテクチャに基づくペルシャ語テキスト生成モデル、Hezarフレームワークへの移植により互換性を確保
大規模言語モデル その他
G
hezarai
57
2
Twibert
MIT
TwiBERTはガーナおよび西アフリカ地域で広く使用されているトゥイ語専用に設計された事前学習言語モデルです
大規模言語モデル Transformers その他
T
sakrah
16
3
Myanberta
Apache-2.0
MyanBERTaはBERTアーキテクチャに基づくビルマ語事前学習言語モデルで、5,992,299のビルマ語文を含むデータセットで事前学習されています。
大規模言語モデル Transformers その他
M
UCSYNLP
91
4
Wangchanberta Base Att Spm Uncased Tagging
airesearch/wangchanberta-base-att-spm-uncasedをファインチューニングしたモデル、具体的な用途は明記されていない
大規模言語モデル Transformers
W
bookpanda
41
1
Wav2vec2 Large Xls R 300m Kinyarwanda
Apache-2.0
facebook/wav2vec2-xls-r-300mをcommon_voiceデータセットで微調整したルワンダ語音声認識モデル
音声認識 Transformers
W
peter2000
13
0
English Filipino Wav2vec2 L Xls R Test 02
Apache-2.0
これはwav2vec2-large-xlsr-53-englishモデルをフィリピン語音声データセットでファインチューニングした音声認識モデルで、英語とフィリピン語の音声からテキストへの変換タスクをサポートします。
音声認識 Transformers
E
Khalsuu
21
0
W2v2 Kaqchikel
MIT
facebook/wav2vec2-xls-r-300mを基にカクチケル語音声データでファインチューニングした音声認識モデル
音声認識 Transformers その他
W
sil-ai
21
1
Wav2vec2 Large Xls R 300m Guarani Small Wb
Apache-2.0
このモデルはwav2vec2-large-xls-r-300mアーキテクチャに基づき、グアラニー語(Guarani)音声データセットで微調整された自動音声認識(ASR)モデルです。
音声認識 Transformers
W
jhonparra18
16
0
Wav2vec2 Xlsr Nepali
Apache-2.0
このモデルはfacebook/wav2vec2-large-xlsr-53をネパール語データセットでファインチューニングした音声認識モデルです。
音声認識
W
shishirAI
22
2
Xlm Roberta Base Finetuned Amharic Finetuned Ner Swahili
これはマーキング分類モデル(具体的には固有表現認識)で、アムハラ語でファインチューニングされたXLM-RoBERTaベースモデルを基に、MasakhaNERデータセットのスワヒリ語部分に対して二次ファインチューニングを行いました。
シーケンスラベリング Transformers その他
X
mbeukman
25
1
Wav2vec2 Xls R 300m Gn Cv8
Apache-2.0
これはfacebook/wav2vec2-xls-r-300mモデルをCommon Voice 8データセットでファインチューニングした自動音声認識(ASR)モデルで、グアラニー語(gn)をサポートしています。
音声認識 Transformers その他
W
lgris
16
0
Xlm Roberta Base Finetuned Wolof Finetuned Ner Swahili
これは、xlm - roberta - base - finetuned - wolofの事前学習モデルを基に、マサカナ固有表現抽出データセットのスワヒリ語部分で微調整した固有表現抽出モデルです。
シーケンスラベリング Transformers その他
X
mbeukman
49
0
Xlm Roberta Base Finetuned Ner Wolof
ウォロフ語の固有表現認識(NER)タスク向けのトークン分類モデル。xlm-roberta-baseをMasakhaNERデータセット(ウォロフ語部分)でファインチューニング
シーケンスラベリング Transformers その他
X
mbeukman
49
0
Sinhala Gpt2
これはMC4シンハラ語データセットを基に訓練された小型のGPT2モデルで、シンハラ語のテキスト生成タスクに適しています。
大規模言語モデル その他
S
keshan
19
1
Sinhalaberto
これは、OSCARの僧伽羅語の重複除去データセットを基に訓練されたやや小さいモデルで、低リソースの僧伽羅語に基礎的なサポートを提供します。
大規模言語モデル その他
S
keshan
34
1
Gpt2 Small Arabic
gpt2-smallアーキテクチャでトレーニングされたアラビア語ウィキペディアデータセットのGPT2モデルで、テキスト生成タスクに適しています。
大規模言語モデル アラビア語
G
akhooli
1,066
15
Gpt2 Small Indonesia Fine Tuning Poem
これはインドネシア語GPT-2スモールモデルをファインチューニングした詩生成モデルで、インドネシア語の詩を生成するために特別に設計されています。
大規模言語モデル Transformers その他
G
ayameRushia
22
5
Xlm Roberta Base Finetuned Swahili Finetuned Ner Swahili
このモデルはMasakhaNERデータセット(スワヒリ語部分)でファインチューニングされた固有表現認識モデルで、スワヒリ語テキストのエンティティ認識タスクに適しています。
シーケンスラベリング Transformers その他
X
mbeukman
14
1
Electra Tagalog Small Uncased Generator
Gpl-3.0
これは合成テキストを生成し、識別器を事前学習するためのELECTRAモデルで、特にフィリピン語向けに設計されています。
大規模言語モデル Transformers その他
E
jcblaise
18
0
Tibert Base
これはティグリニャ語向けに事前学習されたBERT基礎モデルで、4000万トークンのデータセットで40エポックの事前学習を行いました。
大規模言語モデル その他
T
fgaim
28
1
Xlsr Sg Lm
FHNW v1スイス議会データセットでファインチューニングされたスイスドイツ語音声認識モデル
音声認識 Transformers その他
X
manifoldix
17
2
Gpt2 Small Arabic Poetry
gpt2-small-arabicをファインチューニングしたアラビア詩生成モデルで、4万首の異なる時代のアラビア詩を学習データとして使用
大規模言語モデル アラビア語
G
akhooli
33
5
Gpt2 Turkish Cased
トルコ語テキスト向けに訓練されたGPT-2モデルで、テキスト生成タスクの出発点として利用可能
大規模言語モデル その他
G
redrussianarmy
1,060
14
Indo Roberta Small
MIT
インドネシア小型RoBERTaはRoBERTaモデルに基づくマスク言語モデルで、インドネシア語に特化して訓練されており、テキスト補完や特徴抽出タスクに適しています。
大規模言語モデル その他
I
w11wo
50
1
Sundanese Roberta Base
MIT
RoBERTaアーキテクチャに基づくスンダ語マスク言語モデルで、複数のデータセットで訓練されています。
大規模言語モデル その他
S
w11wo
32
2
Wav2vec2 Large Xls R 300m Guarani Colab
Apache-2.0
facebook/wav2vec2-xls-r-300mを基にグアラニー語データセットで微調整した音声認識モデル
音声認識 Transformers
W
FitoDS
19
0
Quberta
RoBERTaアーキテクチャに基づく南ケチュア語(コラオとチャンカ方言)の事前学習モデル。500万トークンで学習
大規模言語モデル Transformers その他
Q
Llamacha
289
1
Mt5 Base Yoruba Adr
mT5-baseをファインチューニングしたヨルバ語自動トーン復元モデル、JW300とMenyo-20kデータセットでトレーニング
機械翻訳 Transformers
M
Davlan
14
0
Bangla Bert
BERTアーキテクチャで事前学習されたベンガル語言語モデル、マスク言語モデリングタスクに対応
大規模言語モデル Transformers その他
B
Kowsher
17
4
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase