D

Distilkobert

由monologg開發
DistilKoBERT是韓語BERT模型的輕量級版本,通過知識蒸餾技術壓縮原始模型,保留了大部分性能同時減少計算資源需求。
下載量 17.02k
發布時間 : 3/2/2022

模型概述

該模型是專門針對韓語優化的輕量級BERT模型,適用於各種韓語自然語言處理任務。

模型特點

輕量級設計
通過知識蒸餾技術壓縮原始模型,減少計算資源需求
韓語優化
專門針對韓語特點進行優化
兼容Hugging Face生態
可通過transformers庫加載使用

模型能力

韓語文本理解
韓語文本分類
韓語命名實體識別

使用案例

自然語言處理
韓語文本分類
對韓語文本進行分類任務
韓語情感分析
分析韓語文本的情感傾向
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase