D

Distilkobert

Developed by monologg
DistilKoBERT是韩语BERT模型的轻量级版本,通过知识蒸馏技术压缩原始模型,保留了大部分性能同时减少计算资源需求。
Downloads 17.02k
Release Time : 3/2/2022

Model Overview

该模型是专门针对韩语优化的轻量级BERT模型,适用于各种韩语自然语言处理任务。

Model Features

轻量级设计
通过知识蒸馏技术压缩原始模型,减少计算资源需求
韩语优化
专门针对韩语特点进行优化
兼容Hugging Face生态
可通过transformers库加载使用

Model Capabilities

韩语文本理解
韩语文本分类
韩语命名实体识别

Use Cases

自然语言处理
韩语文本分类
对韩语文本进行分类任务
韩语情感分析
分析韩语文本的情感倾向
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase