Deberta V3 Large Sst2 Train 8 1
microsoft/deberta-v3-largeをベースに微調整されたテキスト分類モデルで、SST-2データセットで訓練されました。
ダウンロード数 17
リリース時間 : 3/2/2022
モデル概要
このモデルはDeBERTa-v3-largeアーキテクチャの微調整版で、主にテキストの感情分析タスク、特に二値分類問題に使用されます。
モデル特徴
高性能アーキテクチャ
DeBERTa-v3-largeアーキテクチャをベースにしており、強力なテキスト理解能力を持っています。
感情分析
感情分析タスク、特に二値分類問題に特化して最適化されています。
微調整最適化
SST-2データセットで細かく調整され、特定の分野のタスクに適応しています。
モデル能力
テキスト分類
感情分析
自然言語理解
使用事例
感情分析
レビューの感情分類
ユーザーのレビューを肯定的/否定的な感情に分類します。
正解率50.08%(提供された評価データに基づく)
ソーシャルメディアの監視
ソーシャルメディアの投稿の感情傾向を分析します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98