D

Distilbert Base Uncased Becas 1

由Evelyn18開發
基於distilbert-base-uncased在becasv2數據集上微調的文本分類模型
下載量 18
發布時間 : 6/29/2022

模型概述

該模型是DistilBERT的微調版本,主要用於文本分類任務。在becasv2數據集上訓練,驗證損失為3.8655。

模型特點

高效輕量
基於DistilBERT架構,比標準BERT模型更輕量高效
微調優化
在特定數據集(becasv2)上進行了微調,可能針對特定領域任務有更好表現

模型能力

文本分類
自然語言理解

使用案例

文本分析
文本分類
可用於對英文文本進行分類
驗證損失3.8655
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase