Roberta Scarcasm Discriminator
R
Roberta Scarcasm Discriminator
XSYによって開発
RoBERTa-baseアーキテクチャに基づく皮肉テキスト分類器で、テキストが皮肉内容かどうかを区別するために使用されます。
ダウンロード数 30
リリース時間 : 3/2/2022
モデル概要
このモデルはRoBERTa-baseを微調整した皮肉テキスト分類器で、テキスト中の皮肉意図を正確に識別することができます。主に自然言語処理のテキスト分類タスクに使用されます。
モデル特徴
高い正解率
評価セットで96.98%の正解率を達成し、優れた性能を発揮します。
RoBERTaアーキテクチャに基づく
RoBERTaの強力な事前学習言語表現能力を利用して微調整を行います。
使いやすい
GitHubリポジトリで微調整方法を説明しており、使用と二次開発が容易です。
モデル能力
テキスト分類
皮肉検出
感情分析
使用事例
ソーシャルメディア分析
コメントの感情分析
ソーシャルメディアのコメント中の皮肉内容を識別します。
皮肉コメントと非皮肉コメントを正確に区別します。
コンテンツ審査
不適切なコンテンツ検出
皮肉を含む不適切な発言を検出します。
コンテンツ審査システムが潜在的な問題を識別するのを支援します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98