# 韓国語最適化

EXAONE 4.0 1.2B
その他
EXAONE 4.0は、非推論モードと推論モードを統合した多言語大規模言語モデルで、英語、韓国語、スペイン語をサポートし、エージェントツール呼び出し機能を備えています。
大規模言語モデル Transformers 複数言語対応
E
LGAI-EXAONE
189
50
A.X 3.1 Light
Apache-2.0
A.X 3.1 Lightは、韓国語理解と企業デプロイのために最適化された軽量級の大規模言語モデル(LLM)で、SKTによって完全に自主開発されました。
大規模言語モデル Transformers 複数言語対応
A
skt
411
26
A.X 4.0 Light Gguf
Apache-2.0
A.X 4.0 LightはSKT AI Model Labによって開発された軽量級大規模言語モデルで、Qwen2.5をベースに構築され、韓国語理解と企業デプロイに最適化されています。
大規模言語モデル Transformers 複数言語対応
A
mykor
535
2
Kakaocorp.kanana 1.5 8b Instruct 2505 GGUF
Kanana-1.5-8B-Instruct-2505 は Kakao Corp によって開発された 8B パラメータ規模の命令ファインチューニング言語モデルで、テキスト生成タスクに適しています。
大規模言語モデル
K
DevQuasar
483
1
Hyperclovax SEED Text Instruct 0.5B
その他
命令追従能力を備えた韓国語最適化テキスト生成モデルで、軽量設計によりエッジデバイスへのデプロイに適しています
大規模言語モデル Transformers
H
naver-hyperclovax
7,531
60
3b Ko Ft Research Release Q4 K M GGUF
Apache-2.0
これは韓国語に最適化された3Bパラメータ規模の言語モデルで、llama.cppとの互換性のためにGGUF形式に変換されています。
大規模言語モデル 韓国語
3
freddyaboulton
165
0
Trillion 7B Preview AWQ
Apache-2.0
Trillion-7Bプレビュー版は多言語大規模言語モデルで、英語、韓国語、日本語、中国語をサポートし、計算効率と性能において同規模の7Bモデルを上回ります。
大規模言語モデル 複数言語対応
T
trillionlabs
22
4
Trillion 7B Preview
Apache-2.0
Trillion-7Bプレビュー版は多言語対応の大規模言語モデルで、英語、韓国語、日本語、中国語をサポートし、低い計算量を維持しながら、より高い計算量を必要とするモデルと競合する性能を実現しています。
大規模言語モデル Transformers 複数言語対応
T
trillionlabs
6,864
82
Llama DNA 1.0 8B Instruct
Llamaアーキテクチャに基づく最先端のバイリンガル言語モデルで、韓国語の理解と生成能力を特に最適化しつつ、強力な英語能力を保持しています。
大規模言語モデル Transformers 複数言語対応
L
dnotitia
661
58
Bge Reranker V2 M3 Ko
Apache-2.0
これはBAAI/bge-reranker-v2-m3を基に韓国語向けに最適化されたリランキングモデルで、主にテキストランキングタスクに使用されます。
テキスト埋め込み 複数言語対応
B
dragonkue
877
6
Llama 3.2 Rabbit Ko 3B Instruct
ニンジンLlama-3.2 Rabbit Koは指令微調整された大規模言語モデルで、韓国語と英語をサポートし、テキスト生成タスクで優れた性能を発揮します。
大規模言語モデル Safetensors 複数言語対応
L
CarrotAI
2,169
9
Llama VARCO 8B Instruct
Llama-VARCO-8B-InstructはLlamaをベースに構築された生成モデルで、追加の学習により、韓国語処理において優れた性能を発揮し、同時に英語能力も維持しています。
大規模言語モデル Transformers 複数言語対応
L
NCSOFT
2,981
74
Ko Llama 3 8B Instruct
Ko-Llama-3-8B-Instructは、韓国語言語モデルの性能向上を目的として開発されたモデルで、Meta-Llama-3-8B-Instructをベースに教師付き微調整を行っています。
大規模言語モデル Transformers 複数言語対応
K
davidkim205
140
8
Hkcode Solar Youtube Merged
MIT
SOLAR-10.7Bを基にした韓国語言語モデルで、韓国工科大学フィンテック学科で訓練されました
大規模言語モデル Transformers 韓国語
H
hyokwan
3,638
1
Akallama Llama3 70b V0.1 GGUF
その他
AkaLlamaはMeta-Llama-3-70b-Instructをファインチューニングした韓国語大規模モデルで、マルチタスクの実用アプリケーションに特化
大規模言語モデル 複数言語対応
A
mirlab
414
15
Ko Llama3 Luxia 8B
Saltlux AI研究所がMeta Llama-3-8Bを基に最適化した韓国語大規模言語モデル。韓国語トークナイザーを拡張し、100GBの精選された韓国語データで事前学習を実施
大規模言語モデル Transformers 複数言語対応
K
saltlux
2,127
78
Llama 3 Open Ko 8B Gguf
Llama-3-8Bフレームワークを基に追加事前学習を行った韓国語言語モデルで、60GB以上の重複除去テキストデータを使用して訓練
大規模言語モデル 複数言語対応
L
teddylee777
7,211
47
Llama 3 Open Ko 8B Instruct Preview
その他
Llama-3-8Bを基に継続的にプリトレーニングされた韓国語言語モデルで、公開利用可能な60GB以上の重複除去テキストでトレーニングされ、韓国語と英語をサポートします。
大規模言語モデル Transformers 複数言語対応
L
beomi
6,014
60
Llama 3 Open Ko 8B
その他
Llama-3-8Bを基に追加事前学習を行った韓国語言語モデルで、公開利用可能な60GB以上の重複除去テキストで訓練され、韓国語と英語のテキスト生成をサポートします。
大規模言語モデル Transformers 複数言語対応
L
beomi
6,729
146
K2S3 SOLAR 11b V2.0
SOLAR-10.7B-v1.0を微調整した韓国語大規模言語モデルで、韓国語の理解と生成タスクに特化
大規模言語モデル Transformers 韓国語
K
Changgil
16
1
K Finance Sentence Transformer
これはsentence-transformersベースの文埋め込みモデルで、テキストを768次元のベクトル空間にマッピングし、意味検索やクラスタリングタスクに適しています。
テキスト埋め込み Transformers
K
ohsuz
160
1
EEVE Korean Instruct 2.8B V1.0
Apache-2.0
EEVE-Korean-2.8B-v1.0を微調整した韓国語命令モデルで、DPO最適化トレーニングを採用
大規模言語モデル Transformers その他
E
yanolja
2,197
24
EEVE Korean 10.8B V1.0
Apache-2.0
SOLAR-10.7B-v1.0を基に拡張した韓国語大規模言語モデルで、語彙拡張とパラメータ凍結訓練により韓国語理解能力を最適化
大規模言語モデル Transformers
E
yanolja
6,117
83
Kosolar 10.7B V0.2
Apache-2.0
upstage/SOLAR-10.7B-v1.0を基にした韓国語語彙拡張版で、韓国語のウェブスクレイピングデータセットに特化して微調整されています。
大規模言語モデル Transformers
K
yanolja
21
33
OPEN SOLAR KO 10.7B
Apache-2.0
SOLAR-10.7B-v1.0を基にした韓国語強化版、語彙表と韓国語コーパスの拡張を通じて継続的に事前訓練
大規模言語モデル Transformers 複数言語対応
O
beomi
1,151
63
Synatra 7B V0.3 RP GGUF
Synatra 7B V0.3 RPはMistralアーキテクチャを基にした7Bパラメータの韓国語大規模言語モデルで、ロールプレイと韓国語テキスト生成タスクに特化しています。
大規模言語モデル 韓国語
S
TheBloke
3,953
14
Synatra 7B V0.3 RP
Synatra-7B-v0.3-RPはMistral-7B-Instruct-v0.1をファインチューニングした韓国語大規模言語モデルで、ロールプレイと対話生成に特化しています。
大規模言語モデル Transformers 韓国語
S
maywell
3,587
24
Koreanlm 3B
KoreanLMは韓国語言語モデルの開発専用に設立されたオープンソースプロジェクトで、韓国語学習リソースの不足と分かち書き処理の効率低下の問題解決を目的としています。
大規模言語モデル Transformers 複数言語対応
K
quantumaikr
33
2
Llama 2 70b Fb16 Korean
Llama2 70Bモデルを韓国語データセットでファインチューニングしたバージョンで、韓国語と英語のテキスト生成タスクに特化
大規模言語モデル Transformers 複数言語対応
L
quantumaikr
127
37
Kollama2 7b
KoLlama2はオープンソースプロジェクトで、英語ベースの大規模言語モデルLlama2の韓国語性能を向上させ、韓国語ユーザーにより質の高い言語対話体験をもたらすことを目的としています。
大規模言語モデル Transformers 複数言語対応
K
psymon
109
23
Kullm Polyglot 12.8b V2
Apache-2.0
EleutherAI/polyglot-ko-12.8bを基にしたKULLM v2のファインチューニング版で、韓国語をサポートする多言語大規模言語モデル
大規模言語モデル Transformers 韓国語
K
nlpai-lab
1,901
52
Koalpaca KoRWKV 1.5B
Apache-2.0
KoRWKV-1.5BをKoAlpacaデータセットv1.0で微調整した韓国語言語モデル
大規模言語モデル Transformers 韓国語
K
beomi
1,941
7
Koreanlm
KoreanLMは韓国語に最適化されたオープンソース言語モデルプロジェクトで、韓国語の文法と語彙特性に特化し、効率的な分かち書きソリューションを提供
大規模言語モデル Transformers 複数言語対応
K
quantumaikr
59
28
Koalpaca Polyglot 12.8B
Apache-2.0
EleutherAI/polyglot-ko-12.8bを基に韓国アルパカデータセットv1.1bで微調整された多言語韓国語生成モデル
大規模言語モデル Transformers 韓国語
K
beomi
3,998
56
Sentence Transformer Klue
これはsentence-transformersに基づくモデルで、文や段落を768次元の密ベクトル空間にマッピングでき、クラスタリングや意味的検索などのタスクに適しています。
テキスト埋め込み Transformers
S
hunkim
17
1
Pko T5 Base
pko-t5は韓国語最適化のために設計されたT5モデルで、純粋な韓国語データを使用して訓練され、BBPE形態素解析技術を用いて韓国語の形態素解析問題を解決します。
大規模言語モデル Transformers 韓国語
P
paust
874
19
KR ELECTRA Generator
ソウル国立大学によって開発された韓国語専用のELECTRAモデルで、非公式テキスト処理タスクで優れた性能を発揮します。
大規模言語モデル Transformers 韓国語
K
snunlp
42.01k
1
Ke T5 Base
Apache-2.0
KE - T5はT5アーキテクチャに基づくテキストからテキストへの変換モデルで、韓国電子技術研究院によって開発され、様々なNLPタスクをサポートします。
大規模言語モデル 複数言語対応
K
KETI-AIR
3,197
22
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase