Roberta Base Absa Ate Sentiment
Apache-2.0
RoBERTa-baseベースのタグ分類モデルで、アスペクト語を抽出しその感情極性を予測します。
シーケンスラベリング
Transformers 英語

R
gauneg
256
2
Aspect Based Sentiment Analyzer Using Bert
MIT
このモデルはBERTをファインチューニングしたアスペクト感情分析モデルで、テキスト内の特定のアスペクトに関連する感情を分類できます。ユーザー生成コンテンツにおける様々な機能に対する顧客の意見や感情を分析するための貴重な洞察を提供します。
テキスト分類
Transformers 英語

A
srimeenakshiks
135
4
Mvp
MIT
MvPモデルはマルチビュープロンプト手法によりアスペクト感情タプル予測タスクの性能を向上させます。
大規模言語モデル
Transformers

M
zabojeb
26
1
Setfit Absa Bge Small En V1.5 Restaurants Aspect
Apache-2.0
これはSetFitフレームワークに基づくアスペクト感情分析モデルで、レストラン口座におけるアスペクト用語の識別に特化しています。
テキスト分類 英語
S
tomaarsen
2,390
4
Llama 2 7b Absa
Apache-2.0
Llama-2-7bをファインチューニングしたABSAモデルで、テキスト内のアスペクトを識別し感情を分析するのに優れています
大規模言語モデル
Transformers 複数言語対応

L
Orkhan
124
12
ABSA MaskedLM BERTbase Finetuned Sentihood
Apache-2.0
bert-base-uncasedをベースにファインチューニングしたモデルで、アスペクトレベルの感情分析タスクに使用
大規模言語モデル
Transformers

A
UchihaMadara
25
1
Deberta V3 Large Absa V1.1
MIT
DeBERTa-v3-largeをファインチューニングしたアスペクト感情分析モデルで、マルチドメインテキストの感情極性分類をサポート
テキスト分類
Transformers 英語

D
yangheng
442
17
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98