# 韓国語テキスト生成

Lm3 8 Bnb 4bit V1.0
Llama 2アーキテクチャに基づく韓国語テキスト生成モデル、韓国語自然言語処理タスクに特化
大規模言語モデル Transformers 韓国語
L
haes95
18
1
Mamba Ko 2.8b
Apache-2.0
Mamba-ko-2.8Bは状態空間モデルに基づく韓国語事前学習モデルで、合成生成されたデータセットkorean_textbooksを使用してトレーニングされています。
大規模言語モデル Transformers 韓国語
M
kuotient
24
18
T5 V1 1 Base Ko Chat
Apache-2.0
これはApache 2.0ライセンスで公開された韓国語テキスト生成モデルで、韓国語テキストからテキストを生成するタスクに特化しています。
テキスト生成 Transformers 韓国語
T
sangmin6600
1,773
3
Mistral Ko 7B V0.1
Mistralモデルを基に韓国語向けに最適化したバージョンで、韓国語最適化トークナイザーを採用し、Synatraデータセットでファインチューニングを行いました
大規模言語モデル Transformers 韓国語
M
maywell
1,665
14
Mini Synatra SFT
Mini_Synatra_SFT は Mini_synatra_7b_02 モデルを基にした韓国語テキスト生成モデルで、ChatML フォーマットの命令インタラクションをサポートしています。
大規模言語モデル Transformers 韓国語
M
maywell
1,851
3
Llama 2 Ko 7b
LLaMA-2-韓国語版はLLaMA 2の進化版で、語彙表を拡張し韓国語コーパスを追加して事前学習を行い、韓国語テキスト生成タスクをサポートします。
大規模言語モデル Transformers 複数言語対応
L
beomi
3,451
175
Koalpaca Llama 1 7b
Apache-2.0
KoAlpacaはスタンフォード大学のAlpacaモデルを基にした韓国語版で、LLAMAアーキテクチャとPolyglot-ko技術を組み合わせ、韓国語テキスト生成タスクに最適化されています。
大規模言語モデル Transformers 複数言語対応
K
beomi
213
28
Kogpt J 350m
MIT
GPT-Jアーキテクチャに基づく韓国語生成モデルで、3.5億のパラメータを持ち、さまざまな韓国語テキスト生成タスクに適しています。
大規模言語モデル 韓国語
K
heegyu
123
7
T5 V1 1 Base Ko
Apache-2.0
韓国語コーパスで訓練されたT5 1.1バージョンモデル、BBPE技術とMeCab形態素分析によるトークン化最適化を採用
大規模言語モデル 韓国語
T
team-lucid
18
3
Kobart Base V2
MIT
KoBARTはBARTアーキテクチャに基づく韓国語エンコーダ-デコーダ言語モデルで、テキスト充填ノイズ関数で訓練され、韓国語テキストの特徴抽出と生成タスクをサポートします。
大規模言語モデル Transformers 韓国語
K
gogamza
5,937
34
Kogpt2
KoGPT2はHuggingface Transformersフレームワークに基づく韓国語生成事前学習モデルで、SKT - AIによって開発されオープンソース化されました。
大規模言語モデル Transformers
K
taeminlee
1,978
2
Kobart Base V1
MIT
KoBARTはBARTアーキテクチャに基づく韓国語事前学習モデルで、様々な韓国語自然言語処理タスクに適用できます。
大規模言語モデル Transformers 韓国語
K
gogamza
2,077
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase