Bert Base Uncased Goemotions Original Finetuned
B
Bert Base Uncased Goemotions Original Finetuned
justin871030によって開発
BERTの事前学習モデルに基づく感情分類モデルで、テキスト内の感情カテゴリを識別するために特別に設計され、複数の感情ラベル分類をサポートします。
ダウンロード数 78
リリース時間 : 3/2/2022
モデル概要
このモデルは大文字小文字を区別しないBERT事前学習モデルをベースに構築され、線形出力層が追加され、学習過程でラベル平滑化技術と重み付き損失関数が採用され、難しいサンプルの処理能力が最適化されています。
モデル特徴
絵文字サポート
形態素解析器の特殊語彙に一般的な絵文字とマーカーを追加し、絵文字を含むテキストのモデル処理能力を強化しました。
ラベル平滑化技術
学習過程でラベル平滑化技術を採用し、モデルの汎化能力を向上させました。
重み付き損失関数
重み付き損失と焦点損失関数を使用して学習が困難なサンプルを最適化し、不均衡データに対するモデルの処理能力を向上させました。
モデル能力
テキスト感情分類
多ラベル感情識別
絵文字理解
使用事例
ソーシャルメディア分析
ユーザーコメントの感情分析
ソーシャルメディア上のユーザーコメントの感情傾向を分析する
感謝、怒り、喜びなど、複数の感情カテゴリを識別できます
カスタマーサービス
顧客フィードバックの分類
顧客フィードバックの感情傾向を自動的に分類する
優先的に処理する必要がある負のフィードバックを迅速に識別するのに役立ちます
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98