D

Distilbert Base Uncased Becasv2 1

由Evelyn18開發
基於distilbert-base-uncased模型在becasv2數據集上微調的版本,主要用於文本相關任務。
下載量 16
發布時間 : 7/7/2022

模型概述

該模型是DistilBERT的微調版本,適用於文本分類或其他自然語言處理任務。具體用途需要根據becasv2數據集的性質進一步確認。

模型特點

輕量級BERT
基於DistilBERT架構,比標準BERT更輕量,同時保持較好性能
領域適應
在becasv2數據集上微調,可能具備特定領域適應能力
高效訓練
僅需10輪訓練即可達到較好效果

模型能力

文本分類
自然語言理解
文本特徵提取

使用案例

文本分析
文本分類
可用於特定領域的文本分類任務
驗證損失2.9472
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase