D

Distilroberta Base

typeformによって開発
DistilRoBERTaはRoBERTaモデルの軽量級蒸留バージョンで、大部分の性能を維持しながら、サイズが小さく、速度が速い。
ダウンロード数 37
リリース時間 : 3/2/2022

モデル概要

このモデルはRoBERTaの蒸留バージョンで、知識蒸留技術を通じてモデルサイズを削減し、同時に元のモデルの大部分の性能を維持しています。様々な自然言語処理タスクに適しています。

モデル特徴

軽量で効率的
知識蒸留技術により、モデルサイズが40%削減され、速度が60%向上し、同時に97%の性能を維持します。
多機能性
テキスト分類、固有表現認識など、様々な自然言語処理タスクに適しています。
デプロイが容易
小さいモデルサイズのため、本番環境へのデプロイに適しています。

モデル能力

テキスト分類
固有表現認識
質問応答システム
テキスト類似度計算
感情分析

使用事例

テキスト分析
感情分析
ソーシャルメディアのテキストの感情傾向を分析する
ポジティブ、ネガティブ、中立の感情を正確に識別できます。
コンテンツ分類
ニュース記事を分類する
完全なRoBERTaモデルに近い分類精度を達成できます。
情報抽出
固有表現認識
テキストから人名、地名、組織名などのエンティティを抽出する
標準データセットで良好な結果を示します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase