Distilbert Base Uncased Emotion
DistilBERTベースの軽量感情分析モデル。知識蒸留技術によりBERTの97%の言語理解能力を保持しつつ、モデルサイズを40%削減、推論速度を向上。
Downloads 99.59k
Release Time : 3/2/2022
Model Overview
このモデルはDistilBERTを感情分析タスク用にファインチューニングしたもので、テキスト中の6つの基本感情(悲しみ、喜び、愛、怒り、恐怖、驚き)を識別します。
Model Features
効率的な推論
オリジナルBERTモデルと比較し、推論速度が約2倍向上(テストサンプル処理速度398.69件/秒)
高精度
感情分析タスクで92.7%の精度とF1スコアを達成
軽量化
知識蒸留技術により、モデルサイズを40%削減しながら97%の言語理解能力を保持
Model Capabilities
テキスト感情分類
マルチラベル感情認識
英語テキスト分析
Use Cases
ソーシャルメディア分析
ツイート感情モニタリング
Twitterなどのソーシャルメディアユーザーの感情傾向をリアルタイム分析
6つの基本感情を高精度に識別可能(精度92.7%)
顧客フィードバック分析
製品レビュー感情分類
ECプラットフォームやカスタマーサポートシステムのユーザー評価を自動分析
大量テキストを高速処理(398サンプル/秒)
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98