Ko Llama3 Luxia 8B
Saltlux AI研究所がMeta Llama-3-8Bを基に最適化した韓国語大規模言語モデル。韓国語トークナイザーを拡張し、100GBの精選された韓国語データで事前学習を実施
大規模言語モデル
Transformers 複数言語対応

K
saltlux
2,127
78
Rakutenai 7B Chat
Apache-2.0
RakutenAI-7B-chatは楽天グループが開発した日本語大規模言語モデルで、日本語理解ベンチマークテストで優れた性能を発揮し、英語タスクもサポートしています。Mistral-7Bアーキテクチャを基に語彙表を拡張し日本語処理を最適化しました。
大規模言語モデル
Transformers 複数言語対応

R
Rakuten
3,702
62
EEVE Korean 10.8B V1.0
Apache-2.0
SOLAR-10.7B-v1.0を基に拡張した韓国語大規模言語モデルで、語彙拡張とパラメータ凍結訓練により韓国語理解能力を最適化
大規模言語モデル
Transformers

E
yanolja
6,117
83
Kosolar 10.7B V0.2
Apache-2.0
upstage/SOLAR-10.7B-v1.0を基にした韓国語語彙拡張版で、韓国語のウェブスクレイピングデータセットに特化して微調整されています。
大規模言語モデル
Transformers

K
yanolja
21
33
Viet Llama2 Ft
LLaMa2-7Bをベースにしたベトナム語最適化モデルで、語彙を拡張し20億ベトナム語トークンの事前学習を継続し、ベトナム語の理解と生成タスクをサポートします。
大規模言語モデル
Transformers その他

V
infCapital
92
2
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98