D

Distilbert Base Uncased Mnli

typeformによって開発
DistilBERTはBERTの軽量版で、BERTの97%の性能を維持しながら、サイズを40%削減し、速度を60%向上させています。
ダウンロード数 74.81k
リリース時間 : 3/2/2022

モデル概要

DistilBERTはBERTベースの軽量モデルで、知識蒸留技術を用いて訓練され、様々な自然言語処理タスクに適しています。

モデル特徴

軽量で効率的
オリジナルのBERTモデルと比較して、サイズが40%削減され、推論速度が60%向上
高性能
BERTモデルの97%の性能を維持
マルチタスク対応
様々な自然言語処理タスクに適用可能

モデル能力

テキスト分類
ゼロショット分類
自然言語理解

使用事例

テキスト分析
感情分析
テキストの感情傾向を分析
高精度な感情分類
トピック分類
テキストを事前定義されたカテゴリに分類
カスタマーサービス
意図認識
ユーザークエリの意図を識別
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase