D

Distilbert Token Itr0 0.0001 Editorials 01 03 2022 15 20 12

由ali2066開發
基於bert-base-uncased微調的DistilBERT模型,主要用於文本分類任務
下載量 22
發布時間 : 3/2/2022

模型概述

該模型是基於bert-base-uncased在未指定數據集上微調的版本,適用於文本分類任務,具有較高的準確率。

模型特點

高效微調
基於bert-base-uncased進行微調,保留了BERT模型的高性能同時減少了計算資源需求。
高準確率
在評估集上取得了0.9707的準確率,表現優異。
輕量級
作為DistilBERT模型,相比原始BERT模型更加輕量,適合資源有限的環境。

模型能力

文本分類
自然語言處理

使用案例

文本分析
社論分類
可用於對社論文章進行分類,識別不同主題或情感傾向。
準確率0.9707
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase