D

Distilroberta Base

distilbertによって開発
DistilRoBERTaはRoBERTa-baseモデルの蒸留バージョンで、パラメータが少なく、速度が速く、英語テキスト処理タスクに適しています。
ダウンロード数 1.2M
リリース時間 : 3/2/2022

モデル概要

Transformerベースの言語モデルで、知識蒸留技術を使ってRoBERTa-baseモデルを圧縮し、大部分の性能を維持しながら推論速度を向上させます。

モデル特徴

効率的な推論
オリジナルのRoBERTa-baseと比較して、推論速度が約2倍向上します。
軽量化設計
パラメータ数が34%減少(1.25億から8200万)します。
知識蒸留技術
DistilBERTと同じトレーニングプロセスを採用し、教師モデルの90%以上のGLUE性能を維持します。

モデル能力

マスク言語モデリング
テキスト分類
シーケンスラベリング
質問応答システム

使用事例

テキスト理解
感情分析
レビューを肯定的/否定的な感情に分類します。
SST-2データセットで92.5%の正解率を達成します。
テキスト類似度計算
2つのテキストの意味的な類似度を測定します。
STS-Bデータセットで88.3点を達成します。
情報抽出
固有表現認識
テキストから人名、地名などのエンティティを識別します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase