D

Distilbert Sentiment

appleboiyによって開発
DistilBERTはBERTの軽量蒸留版で、BERTの97%の性能を維持しながら、サイズを40%削減しました。
ダウンロード数 17
リリース時間 : 12/5/2024

モデル概要

DistilBERTはBERTベースの軽量モデルで、知識蒸留技術を用いて訓練され、テキスト分類や感情分析など様々な自然言語処理タスクに適しています。

モデル特徴

軽量
オリジナルBERTより40%小型で、推論速度が速い。
高性能
BERTの97%の性能を維持し、様々なNLPタスクに適用可能。
知識蒸留
BERTから知識蒸留技術で学習し、トレーニングコストを削減。

モデル能力

テキスト分類
感情分析
ゼロショット分類

使用事例

感情分析
映画レビュー感情分析
映画レビューの感情傾向(ポジティブまたはネガティブ)を分析。
高精度な二分類結果。
テキスト分類
ニュース分類
ニュース記事を事前定義カテゴリに分類。
マルチクラス分類タスクをサポート。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase