D

Distilbert Base Chinese Amazon Zh 20000

由ASCCCCCCCC開發
該模型是基於bert-base-chinese在未知數據集上微調的版本,主要用於中文文本處理任務。
下載量 14
發布時間 : 3/2/2022

模型概述

這是一個經過微調的DistilBERT中文模型,適用於中文文本分類或其他自然語言處理任務。

模型特點

輕量級模型
基於DistilBERT架構,相比原始BERT模型更輕量,推理速度更快。
中文優化
專門針對中文文本進行了微調優化。

模型能力

中文文本分類
自然語言理解

使用案例

電商
商品評論分類
對電商平臺上的中文商品評論進行情感分析或分類
在評估集上準確率為50.92%
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase