# 語彙拡張

Ko Llama3 Luxia 8B
Saltlux AI研究所がMeta Llama-3-8Bを基に最適化した韓国語大規模言語モデル。韓国語トークナイザーを拡張し、100GBの精選された韓国語データで事前学習を実施
大規模言語モデル Transformers 複数言語対応
K
saltlux
2,127
78
Rakutenai 7B Chat
Apache-2.0
RakutenAI-7B-chatは楽天グループが開発した日本語大規模言語モデルで、日本語理解ベンチマークテストで優れた性能を発揮し、英語タスクもサポートしています。Mistral-7Bアーキテクチャを基に語彙表を拡張し日本語処理を最適化しました。
大規模言語モデル Transformers 複数言語対応
R
Rakuten
3,702
62
EEVE Korean 10.8B V1.0
Apache-2.0
SOLAR-10.7B-v1.0を基に拡張した韓国語大規模言語モデルで、語彙拡張とパラメータ凍結訓練により韓国語理解能力を最適化
大規模言語モデル Transformers
E
yanolja
6,117
83
Kosolar 10.7B V0.2
Apache-2.0
upstage/SOLAR-10.7B-v1.0を基にした韓国語語彙拡張版で、韓国語のウェブスクレイピングデータセットに特化して微調整されています。
大規模言語モデル Transformers
K
yanolja
21
33
Viet Llama2 Ft
LLaMa2-7Bをベースにしたベトナム語最適化モデルで、語彙を拡張し20億ベトナム語トークンの事前学習を継続し、ベトナム語の理解と生成タスクをサポートします。
大規模言語モデル Transformers その他
V
infCapital
92
2
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase