K

Kominilm

由BM-K開發
KoMiniLM是一個輕量級韓語語言模型,旨在解決大型語言模型在實際應用中的延遲和容量限制問題。
下載量 244
發布時間 : 5/23/2022

模型概述

KoMiniLM是一個輕量級的韓語語言模型,通過蒸餾技術從教師模型KLUE-BERT中提取知識,適用於多種韓語自然語言處理任務。

模型特點

輕量級設計
模型參數規模小(23M/68M),適合在資源有限的環境中部署和使用。
知識蒸餾
通過自注意力分佈和自注意力值關係從KLUE-BERT教師模型中蒸餾知識,提升模型性能。
多任務支持
在多種韓語NLP任務上表現優異,包括情感分析、命名實體識別、問答等。

模型能力

文本分類
命名實體識別
問答系統
文本相似度計算
情感分析

使用案例

情感分析
電影評論情感分析
使用NSMC數據集進行電影評論的情感分析。
準確率89.67±0.03 (23M模型)
命名實體識別
Naver NER任務
在Naver NLP挑戰賽2018的NER任務上進行測試。
F1分數84.79±0.09 (23M模型)
問答系統
KorQuAD問答
在韓語問答數據集KorQuAD上進行測試。
EM/F1分數82.11±0.42 / 91.21±0.29 (23M模型)
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase