# 韓国語事前学習

Kpfbert
KpfBERTはBERTアーキテクチャに基づく韓国語事前学習言語モデルで、個人開発者jinmang2によって公開されました。
大規模言語モデル Transformers
K
jinmang2
29.46k
4
Roberta Base
韓国語事前学習に基づくRoBERTaモデルで、様々な韓国語自然言語処理タスクに適用可能です。
大規模言語モデル Transformers 韓国語
R
klue
1.2M
33
Bert Base
韓国語事前学習に基づくBERTモデルで、KLUEベンチマーク開発チームによって構築され、さまざまな韓国語理解タスクをサポート
大規模言語モデル Transformers 韓国語
B
klue
129.68k
47
Koelectra Base V3 Generator
Apache-2.0
KoELECTRA v3は、ELECTRAアーキテクチャに基づく韓国語事前学習言語モデルで、韓国語テキスト処理タスクに特に適しています。
大規模言語モデル Transformers 韓国語
K
monologg
3,003
6
Kobert Lm
Apache-2.0
KoBERT-LMは韓国語に最適化された事前学習言語モデルで、BERTアーキテクチャを基に、韓国語テキストに対してさらに事前学習を行っています。
大規模言語モデル 韓国語
K
monologg
49
1
Roberta Ko Small
Apache-2.0
LASSLフレームワークでトレーニングされた小型韓国語RoBERTaモデルで、様々な韓国語自然言語処理タスクに適しています。
大規模言語モデル Transformers 韓国語
R
lassl
17
2
Koelectra Base Generator
Apache-2.0
KoELECTRAはELECTRAアーキテクチャに基づく韓国語事前学習言語モデルで、monologgによって開発されました。このモデルは生成器部分として、韓国語テキストの表現学習に特化しています。
大規模言語モデル Transformers 韓国語
K
monologg
31
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase