Distilbert Base Uncased Finetuned On Emotions Data
Apache-2.0
このモデルはdistilbert-base-uncasedを感情データセットでファインチューニングしたバージョンで、テキストの感情分類に使用されます。
テキスト分類
Transformers

D
Shubhu07
25
1
Greekbart
MIT
GreekBARTはBARTベースのギリシャ語シーケンス・ツー・シーケンス事前学習モデルで、要約生成などの生成タスクに特に適しています。
大規模言語モデル
Transformers その他

G
dascim
34
0
Emobloom 7b
MIT
Emobloom-7bはEmoLLMsプロジェクトの一部であり、包括的な感情分析に特化した、命令追従能力を備えた最初のオープンソース大規模言語モデルシリーズです。
大規模言語モデル
Transformers 英語

E
lzw1008
21
2
Distilbert Base Uncased Finetuned Amazon Food Reviews
Apache-2.0
distilbert-base-uncasedをファインチューニングしたアマゾン食品レビュー感情分析モデル。レビューをネガティブ(-1)、ニュートラル(0)、ポジティブ(1)の3分類が可能
テキスト分類
Transformers

D
jhan21
56
2
Distilbert Base Uncased Finetuned Emotional
Apache-2.0
DistilBERTベースの軽量テキスト感情分類モデル、emotionデータセットでファインチューニング済み、精度93.05%
テキスト分類
Transformers

D
TieIncred
663
1
Distilbert Base Uncased Go Emotions Onnx
MIT
GoEmotionsデータセットを用いて蒸留された軽量感情分類モデルで、ゼロショット分類プロセスで訓練され、効率的な感情分析タスクに適しています。
テキスト分類
Transformers

D
Cohee
3,633
7
Distilhubert Finetuned Ravdess
Apache-2.0
DistilHuBERTアーキテクチャを基にRAVDESS音声感情データセットでファインチューニングされた音声感情認識モデル、精度92.36%
音声分類
Transformers

D
pollner
43
2
Bert Base Goemotions
Apache-2.0
bert-base-uncasedをgo_emotionsデータセットでファインチューニングした感情分類モデル
テキスト分類
Transformers

B
IsaacZhy
28
2
Guwen Sent
Apache-2.0
BERTアーキテクチャに基づく古典詩詞の感情分類器で、古文の感情傾向を分析するために特別に設計されています。
テキスト分類
Transformers 中国語

G
ethanyt
20
4
Distilbert Base Uncased Finetuned Emotion
Apache-2.0
DistilBERTベースの軽量テキスト感情分類モデル、emotionデータセットでファインチューニングされ、精度は92.3%
テキスト分類
Transformers

D
cscottp27
17
0
Bert Base Cased Finetuned Emotion
Apache-2.0
BERT-base-casedモデルをemotionデータセットで微調整した感情分類モデル
テキスト分類
Transformers

B
ncduy
15
1
Distilbert Base Uncased Finetuned Emotion
Apache-2.0
このモデルはDistilBERTをemotionデータセットでファインチューニングしたテキスト分類モデルで、感情分析タスクに使用されます。
テキスト分類
Transformers

D
Worldman
17
0
Albert Base V2 Emotion
Apache-2.0
ALBERTアーキテクチャに基づく軽量級感情分析モデルで、Twitter感情データセットで微調整されています。
テキスト分類 英語
A
bhadresh-savani
15.44k
3
Distilbert Base Uncased Finetuned Emotion Test 01
Apache-2.0
DistilBERTに基づく軽量級テキスト感情分類モデルで、emotionデータセットで微調整されました。
テキスト分類
Transformers

D
lewtun
15
0
Bert Base Uncased Finetuned Surveyclassification
Apache-2.0
bert-base-uncasedをベースに微調整した客服調査テキスト分類モデルで、顧客のフィードバック分析に使用します。
テキスト分類
Transformers 英語

B
Jorgeutd
171
0
Distilbert Base Chinese Amazon Zh 20000
このモデルはbert-base-chineseを未知のデータセットで微調整したバージョンで、主に中国語テキスト処理タスクに使用されます。
大規模言語モデル
Transformers

D
ASCCCCCCCC
14
0
Distilbert Base Uncased Finetuned Emotion
Apache-2.0
このモデルは、DistilBERTをベースにemotionデータセットでファインチューニングされたテキスト分類モデルで、感情分析タスクに使用されます。
テキスト分類
Transformers

D
FabioDataGeek
19
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98