D

Distilkobert

monologgによって開発
DistilKoBERTは韓国語BERTモデルの軽量版で、知識蒸留技術により元のモデルを圧縮し、大部分の性能を維持しながら計算リソースの需要を削減します。
ダウンロード数 17.02k
リリース時間 : 3/2/2022

モデル概要

このモデルは韓国語に特化して最適化された軽量BERTモデルで、様々な韓国語自然言語処理タスクに適しています。

モデル特徴

軽量設計
知識蒸留技術により元のモデルを圧縮し、計算リソースの需要を削減
韓国語最適化
韓国語の特徴に特化して最適化
Hugging Faceエコシステム互換
transformersライブラリを通じてロード可能

モデル能力

韓国語テキスト理解
韓国語テキスト分類
韓国語固有表現認識

使用事例

自然言語処理
韓国語テキスト分類
韓国語テキストの分類タスク
韓国語感情分析
韓国語テキストの感情傾向を分析
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase