D

Distilroberta Base

由distilbert開發
DistilRoBERTa是RoBERTa-base模型的蒸餾版本,參數更少但速度更快,適用於英語文本處理任務。
下載量 1.2M
發布時間 : 3/2/2022

模型概述

基於Transformer的語言模型,通過知識蒸餾技術壓縮RoBERTa-base模型,保留大部分性能的同時提升推理速度。

模型特點

高效推理
相比原版RoBERTa-base,推理速度提升約2倍
輕量化設計
參數數量減少34%(從1.25億降至8200萬)
知識蒸餾技術
採用與DistilBERT相同的訓練流程,保留教師模型90%以上的GLUE性能

模型能力

掩碼語言建模
文本分類
序列標註
問答系統

使用案例

文本理解
情感分析
對評論進行正面/負面情感分類
在SST-2數據集上達到92.5%準確率
文本相似度計算
衡量兩段文本的語義相似度
在STS-B數據集上達到88.3分
信息抽取
命名實體識別
從文本中識別人名、地名等實體
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase