D

Distilbert Base Uncased

distilbertによって開発
DistilBERTはBERT基礎モデルの蒸留バージョンで、同等の性能を維持しながら、より軽量で高効率です。シーケンス分類、タグ分類などの自然言語処理タスクに適しています。
ダウンロード数 11.1M
リリース時間 : 3/2/2022

モデル概要

Transformerアーキテクチャに基づく軽量言語モデルで、知識蒸留技術を通じてBERT基礎モデルから圧縮され、英語のテキスト理解タスクをサポートします。

モデル特徴

高効率蒸留
知識蒸留技術により、BERT - baseの97%の性能を維持しながら、モデルサイズを40%削減します。
高速推論
元のBERTモデルと比較して、推論速度が60%向上します。
多タスク適応
下流タスクの微調整をサポートし、さまざまな自然言語処理シーンに適用できます。

モデル能力

テキスト特徴抽出
マスク単語予測
文の意味理解
テキスト分類
質問応答システム

使用事例

テキスト分析
感情分析
レビュー内容をポジティブ/ネガティブ感情に分類します。
SST - 2データセットでの正解率は91.3%です。
情報抽出
固有表現抽出
テキストから人名、場所、組織などのエンティティを識別します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase