TY Ecomm Embed Multilingual Base V1.2.0
Apache-2.0
GTE-Multilingual-Base は多言語文埋め込みモデルで、複数言語の文類似度計算をサポートします。
テキスト埋め込み 複数言語対応
T
Trendyol
790
25
Emma 500 Llama2 7b
EMMA-500はLlama 2 7Bアーキテクチャに基づく多言語大規模言語モデルで、500以上の言語をサポートし、常識推論や機械翻訳などのタスクで優れた性能を発揮します。
大規模言語モデル
Transformers

E
MaLA-LM
65
14
Nllb1.3 Smugri4 V0.01
これはNLLB-1.3bモデルを29のフィン・ウゴル語族言語の並列データで微調整したバージョンで、複数の方言/バリエーション生成をサポートします。
機械翻訳
Transformers 複数言語対応

N
tartuNLP
39
2
Khmer Sentiment Xlm Roberta Base
MIT
クメール語金融テキスト向けに最適化された感情分析モデル、ポジティブ/ネガティブ感情を分類可能
テキスト分類
Transformers その他

K
songhieng
31
1
Stt Bm Quartznet15x5 V0
これはNVIDIA NeMoフレームワークを基に微調整されたバンバラ語自動音声認識モデルで、バンバラ語音声をテキストに変換するタスクに適しています。
音声認識 その他
S
RobotsMali
88
1
Asr Whisper Large V3 Salt
whisper-large-v3を基に適応した音声認識モデルで、ウガンダ地域の複数言語に特化して最適化
音声認識
Transformers 複数言語対応

A
Sunbird
249
1
Chitrarth
その他
Chitrarthは多言語視覚言語モデルで、視覚と言語を結びつけることを目的としており、特にインドの多様な言語のサポートに重点を置いています。
画像生成テキスト 複数言語対応
C
krutrim-ai-labs
410
11
Fish Speech 1.5 Ukrainian
Fish Speech 1.5をファインチューニングしたウクライナ語専用音声合成モデルで、55人の話者の高品質音声生成をサポート
音声合成 その他
F
skypro1111
43
4
En To Dzo Nllb Mul Mt Nlp M4
このモデルはfacebook/nllb-200-distilled-600Mをファインチューニングした英語からゾンカ語(Dzongkha)への翻訳モデルです
機械翻訳
Transformers

E
Zeref02210217-cst
22
1
Whisper Small Uzbek
Apache-2.0
OpenAI Whisper-smallをファインチューニングしたウズベク語自動音声認識モデル、Common Voice 17.0データセットでトレーニング
音声認識
Transformers その他

W
abduaziz
20
2
Oolel V0.1
Apache-2.0
高性能ウォロフ語オープンソース言語モデルの初版、Qwen 2.5アーキテクチャを基に構築、ウォロフ語と英語の双方向翻訳、テキスト生成などのタスクをサポート
大規模言語モデル
Transformers 複数言語対応

O
soynade-research
145
17
F15
フィッシュスピーチ V1.5は、100万時間以上の多言語音声データでトレーニングされた最先端のテキスト読み上げ(TTS)モデルです。
音声合成 複数言語対応
F
cocktailpeanut
5,162
0
Nllb 200 Distilled 600M Ctranslate2
NLLB-200は200言語をサポートするニューラル機械翻訳モデルで、特に低リソース言語の翻訳品質に焦点を当てています。
機械翻訳 複数言語対応
N
entai2965
37
1
Nllb 200 3.3B Ctranslate2
NLLB-200は200言語をサポートするニューラル機械翻訳モデルで、低リソース言語の翻訳研究に焦点を当てています。
機械翻訳 複数言語対応
N
entai2965
25
2
Openlid V2
Gpl-3.0
OpenLID-v2は高カバレッジで高性能な言語識別モデルで、200の言語バリアントをサポートし、OpenLIDの改良版です。
テキスト分類
O
laurievb
273
2
Madlad400 7b Mt Bt Q4 K M GGUF
Apache-2.0
150以上の言語をサポートする多言語処理モデルで、さまざまな自然言語処理タスクに適しています。
大規模言語モデル 複数言語対応
M
brauliobo
22
1
Jina Embeddings V3
Jina Embeddings V3 は100以上の言語をサポートする多言語文埋め込みモデルで、文の類似度と特徴抽出タスクに特化しています。
テキスト埋め込み
Transformers 複数言語対応

J
jinaai
3.7M
911
EXLMR
Apache-2.0
EXLMRはXLM-Rの拡張版で、トークナイザーの語彙テーブルを拡張して新規言語をサポートし、未知語問題を緩和します。特にエチオピアの低リソース言語向けに最適化されています。
大規模言語モデル
Transformers その他

E
Hailay
27
0
XLSR WithLM Malayalam
Apache-2.0
このモデルはfacebook/wav2vec2-xls-r-300mをIMaSC、Indic TTS Malayalam、OpenSLR Malayalamのトレーニングデータセットでファインチューニングしたバージョンで、マラヤーラム語の自動音声認識をサポートします。
音声認識
Transformers

X
kavyamanohar
19
4
SSA HuBERT Base 60k
HuBERTアーキテクチャに基づく自己教師あり音声モデルで、サハラ以南アフリカ地域の21言語に特化して最適化され、6万時間のトレーニングデータを使用
音声認識
Transformers

S
Orange
995
11
Poro 34B Chat
Apache-2.0
Poro 34Bチャット版はPoro 34Bを微調整したインストラクションフォローモデルで、フィンランド語と英語のバイリンガルインタラクションをサポートし、Silo AI、TurkuNLPグループ、HPLTが共同開発しました。
大規模言語モデル
Transformers 複数言語対応

P
LumiOpen
465
12
Nusabert Base
Apache-2.0
NusaBERT基本版はBERTアーキテクチャに基づく多言語エンコーダー言語モデルで、13種類のインドネシア地域言語をサポートし、複数のオープンソースコーパスで事前学習されています。
大規模言語モデル
Transformers その他

N
LazarusNLP
68
3
Viking 33B
Apache-2.0
ヴァイキング33Bは330億パラメータの純粋デコーダーアーキテクチャのTransformerモデルで、フィンランド語、英語及び北欧諸言語の処理をサポートし、コード理解と生成能力も備えています。
大規模言語モデル
Transformers 複数言語対応

V
LumiOpen
1,030
25
Afro Xlmr Large 76L
MIT
AfroXLMR-large-76L は、拡張された XLM-R-large モデルを MLM(マスク言語モデリング)適応させることで作成され、アフリカで広く使用されている76言語(うち4言語は高リソース言語)をカバーしています。
大規模言語モデル 複数言語対応
A
Davlan
921
4
Viking 13B
Apache-2.0
ヴァイキング13Bは130億パラメータの多言語大規模モデルで、フィンランド語、英語及び北欧諸言語をサポートし、コード処理能力を備えています
大規模言語モデル
Transformers 複数言語対応

V
LumiOpen
1,233
12
Viking 7B
Apache-2.0
ヴァイキング7Bは70億パラメータのTransformerモデルで、フィンランド語、北欧言語およびプログラミングコードの処理に特化し、2兆トークンのトレーニングを基にしています。
大規模言語モデル
Transformers 複数言語対応

V
LumiOpen
2,000
42
Aya 101
Apache-2.0
Aya 101は101言語の命令をサポートする大規模多言語生成型言語モデルで、様々な評価で同類のモデルを上回っています。
大規模言語モデル
Transformers 複数言語対応

A
CohereLabs
3,468
640
Nllb Moe 54b 4bit
NLLB-MoEはMetaが開発した混合専門家機械翻訳モデルで、200言語をサポートし、現在最も先進的なオープンアクセス機械翻訳モデルの一つです。
機械翻訳
Transformers 複数言語対応

N
KnutJaegersberg
17
5
Myanmargpt
Openrail
GPT2アーキテクチャに基づくミャンマー語言語モデルで、ミャンマー語の理解と生成をサポート
大規模言語モデル
Transformers その他

M
jojo-ai-mst
118
10
Gpt Sw3 20b Instruct 4bit Gptq
その他
GPT-SW3はAIスウェーデンによって開発された大規模な北欧言語モデルで、5つの北欧言語と英語のテキスト生成タスクをサポートします。
大規模言語モデル
Transformers 複数言語対応

G
AI-Sweden-Models
60
4
Madlad400 10b Mt
Apache-2.0
100以上の言語をサポートする汎用言語モデルで、さまざまな自然言語処理タスクに適しています。
大規模言語モデル 複数言語対応
M
google
2,412
110
Madlad400 3b Mt
Apache-2.0
100以上の言語をサポートする多言語処理モデルで、さまざまな自然言語処理タスクに適しています。
大規模言語モデル 複数言語対応
M
google
7,035
119
Madlad400 8b Lm
Apache-2.0
200以上の言語をサポートする多言語処理モデルで、さまざまな自然言語処理タスクに適しています。
大規模言語モデル 複数言語対応
M
jbochi
71
8
Madlad400 7b Mt
Apache-2.0
これは150以上の言語をサポートする汎用モデルで、さまざまな自然言語処理タスクに適しています。
大規模言語モデル 複数言語対応
M
jbochi
507
6
Wav2vec2 Phenome Based Alffaamharic
Apache-2.0
wav2vec2ベースの音声認識モデルで、アムハラ語向けに音素レベルで微調整されています
音声認識
Transformers

W
Samuael
34
2
Nllb Clip Large Oc
NLLB-CLIPはNLLBモデルのテキストエンコーダとCLIP画像エンコーダを統合した多言語視覚言語モデルで、201言語をサポートしています。
テキスト生成画像
N
visheratin
28
2
Nllb Clip Base Oc
NLLB-CLIPはNLLBテキストエンコーダーとCLIP画像エンコーダーを統合した多言語視覚言語モデルで、201言語をサポート
テキスト生成画像
N
visheratin
371
1
Mms Tts Kri
Meta社が開発したクレオール語テキスト読み上げモデルで、VITSエンドツーエンドアーキテクチャを採用し、高品質な音声合成をサポート
音声合成
Transformers

M
facebook
289
0
Mms Tts Smo
Meta社が開発したサモア語テキスト読み上げモデル、VITSアーキテクチャに基づき、高品質な音声合成をサポート
音声合成
Transformers

M
facebook
21
0
Mgpt 1.3B Kazakh
MIT
mGPT-XL (1.3B)を基にしたカザフ語言語モデル、13億パラメータを保有し、カザフ語に最適化されたトレーニングを実施
大規模言語モデル
Transformers 複数言語対応

M
ai-forever
74
7
- 1
- 2
- 3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98