D

Distilroberta Base V2

typeformによって開発
DistilRoBERTaはRoBERTaモデルの軽量蒸留版で、大部分の性能を維持しながらパラメータ数を削減し、効率的なテキスト処理タスクに適しています。
ダウンロード数 22
リリース時間 : 3/2/2022

モデル概要

このモデルはRoBERTaの蒸留版で、知識蒸留技術によりモデルサイズを縮小しつつ、強い自然言語理解能力を保持しており、テキスト分類、固有表現認識などのタスクに適しています。

モデル特徴

軽量で効率的
知識蒸留技術によりパラメータを40%削減しつつ、RoBERTa-baseの97%の性能を維持
高速推論
元のRoBERTaモデルに比べ、推論速度が約60%向上
多機能性
テキスト分類、固有表現認識、質問応答システムなど、様々な下流NLPタスクをサポート

モデル能力

テキスト理解
テキスト分類
固有表現認識
質問応答システム
意味的類似度計算

使用事例

テキスト分析
感情分析
ソーシャルメディアテキストの感情傾向を分析
精度90%以上(推定値)
コンテンツ分類
ニュース記事の自動分類
情報抽出
固有表現認識
テキストから人名、地名などの固有表現情報を抽出
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase