K

Kobert

monologgによって開発
KoBERTはBERTアーキテクチャに基づく韓国語事前学習言語モデルで、様々な韓国語自然言語処理タスクに適しています。
ダウンロード数 1.2M
リリース時間 : 3/2/2022

モデル概要

KoBERTはBERTアーキテクチャに基づく韓国語事前学習言語モデルで、SKT Brainによって開発されました。このモデルは韓国語に特化して最適化されており、テキスト分類、固有表現認識などの自然言語処理タスクに使用できます。

モデル特徴

韓国語最適化
韓国語の言語特性に特化して最適化されており、韓国語テキストをより効果的に処理できます。
BERTアーキテクチャ採用
BERTアーキテクチャを採用しており、強力な文脈理解能力を備えています。
事前学習モデル
大規模な韓国語コーパスで事前学習されており、下流タスクに直接使用できます。

モデル能力

韓国語テキスト理解
テキスト分類
固有表現認識

使用事例

自然言語処理
韓国語テキスト分類
韓国語テキストを分類します。感情分析、トピック分類などが可能です。
韓国語固有表現認識
韓国語テキスト中の人名、地名、組織名などの実体を識別します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase