Speech Emotion Recognition With Openai Whisper Large V3
Apache-2.0
本プロジェクトではWhisperモデルを利用して音声感情認識を実現し、音声を喜び、悲しみ、驚きなどの異なる感情カテゴリに分類することができます。
音声分類
Transformers

S
firdhokk
7,750
33
Vit Facial Expression Recognition
ViTアーキテクチャに基づく顔面表情認識モデルで、imagefolderデータセットで微調整され、精度は91.77%に達しました
人の顔に関係がある
Transformers

V
Alpiyildo
581
1
Facial Expression Detection
事前学習モデルを微調整した顔表情認識モデルで、8種類の異なる顔表情を効果的に認識できます。
人の顔に関係がある
Transformers

F
HardlyHumans
1,266
1
Vit Facial Expression Recognition
ViTベースの顔表情認識モデルで、FER2013、MMI、AffectNetデータセットで微調整され、7種類の感情分類をサポート
人の顔に関係がある
Transformers

V
mo-thecreator
8,730
16
Vit Facial Expression Recognition
ViTベースの顔表情認識モデルで、FER2013、MMI、AffectNetデータセットでファインチューニングされ、7つの基本感情を識別可能
人の顔に関係がある
Transformers

V
motheecreator
4,221
13
Wav2vec2 Audio Emotion Classification
Apache-2.0
facebook/wav2vec2-baseを微調整した音声感情分類モデルで、音声中の感情状態を分析するために使用されます
音声分類
Transformers

W
dhanush23
15
0
Wav2vec2 Audio Emotion Classification
Apache-2.0
facebook/wav2vec2-baseをファインチューニングした音声感情分類モデルで、評価セットで73.98%の精度を達成
音声分類
Transformers

W
chin-may
77
5
Whisper Tiny Bn Emo
shhossain/whisper-tiny-bnをファインチューニングした感情分類モデルで、ベンガル語の7つの基本感情を認識可能
音声分類
Transformers その他

W
shhossain
20
1
Wav2vec2 Lg Xlsr En Speech Emotion Recognition Finetuned Ravdess V8
Apache-2.0
wav2vec2アーキテクチャに基づく英語音声感情認識モデル、RAVDESSデータセットで微調整
音声分類
Transformers

W
Wiam
94
4
Emotion Diarization Wavlm Large
Apache-2.0
WavLM Largeモデルをファインチューニングし、音声感情認識と話者ログ分析に使用され、複数の感情分類をサポート
音声分類 英語
E
speechbrain
1,128
52
Audioemodetect V1
テキストベースの感情分類モデルで、怒り、嫌悪、恐怖、喜び、中立、悲しみの6つの感情を識別できます。
テキスト分類
Transformers

A
PrachiPatel
19
0
Resnet 50 Finetuned FER2013 0.003 CKPlus
Apache-2.0
ResNet-50アーキテクチャをファインチューニングした顔表情認識モデル、FER2013とCKPlusデータセットでトレーニング
人の顔に関係がある
Transformers

R
Celal11
29
0
Xtremedistil L6 H384 Go Emotion
Apache-2.0
マイクロソフトのXtremedistilアーキテクチャをgo_emotionsデータセットでファインチューニングしたマルチラベル感情分類モデル
テキスト分類
Transformers

X
bergum
619
8
Facialemorecog
MIT
PyTorchに基づく顔の感情認識モデルで、FER2013データセットで訓練され、正解率が91.9%に達します。
人の顔に関係がある
Transformers 英語

F
Rajaram1996
628
23
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98