D

Distilbert Token Itr0 0.0001 Editorials 01 03 2022 15 20 12

由 ali2066 开发
基于bert-base-uncased微调的DistilBERT模型,主要用于文本分类任务
下载量 22
发布时间 : 3/2/2022

模型简介

该模型是基于bert-base-uncased在未指定数据集上微调的版本,适用于文本分类任务,具有较高的准确率。

模型特点

高效微调
基于bert-base-uncased进行微调,保留了BERT模型的高性能同时减少了计算资源需求。
高准确率
在评估集上取得了0.9707的准确率,表现优异。
轻量级
作为DistilBERT模型,相比原始BERT模型更加轻量,适合资源有限的环境。

模型能力

文本分类
自然语言处理

使用案例

文本分析
社论分类
可用于对社论文章进行分类,识别不同主题或情感倾向。
准确率0.9707
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase