D

Distilbert Base Uncased Becas 2

由Evelyn18開發
基於distilbert-base-uncased在becasv2數據集上微調的模型,驗證損失為5.9506
下載量 16
發布時間 : 6/29/2022

模型概述

該模型是DistilBERT的微調版本,主要用於文本相關任務。具體用途需進一步補充信息。

模型特點

輕量級BERT
基於DistilBERT架構,比標準BERT更輕量高效
領域微調
在becasv2數據集上進行了微調,可能具備特定領域能力

模型能力

文本理解
文本分類(推斷)
文本特徵提取(推斷)

使用案例

自然語言處理
文本分類
可能適用於特定領域的文本分類任務
驗證損失5.9506
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase