Whisper Persian Turbooo
MIT
OpenAI Whisper-large-v3-turboを最適化したペルシャ語自動音声認識モデル、医療分野のアプリケーションをサポート
音声認識
Transformers その他

W
hackergeek98
51
2
Whisper Fa Tinyyy
MIT
OpenAI Whisper-tinyをファインチューニングしたペルシャ語自動音声認識モデル、common_voice_11_0データセットでトレーニング
音声認識
Transformers その他

W
hackergeek98
55
2
Stt Fa Fastconformer Hybrid Large
これはペルシャ語の自動音声認識(ASR)向けのハイブリッドモデルで、センサーとCTCデコーダーの損失を組み合わせ、FastConformerアーキテクチャに基づいて最適化されています。
音声認識 その他
S
nvidia
2,398
9
Asr Whisper Medium Commonvoice Fa
Apache-2.0
CommonVoice-14.0ペルシャ語データセットでファインチューニングされたwhisper mediumモデルで、ペルシャ語自動音声認識タスク用です。
音声認識 その他
A
speechbrain
21
3
Whisper Large Persian
Apache-2.0
Whisperアーキテクチャに基づくペルシャ語自動音声認識モデル、Common Voice 11.0ペルシャ語データセットでファインチューニング
音声認識
Transformers その他

W
steja
800
12
Exp W2v2t Fa Hubert S801
Apache-2.0
facebook/hubert-large-ll60kモデルをファインチューニングしたペルシャ語自動音声認識モデルで、Common Voice 7.0ペルシャ語データセットを使用してトレーニングされました。
音声認識
Transformers その他

E
jonatasgrosman
16
0
Wav2vec2 Base Common Voice 40p Persian Colab
Apache-2.0
このモデルはfacebook/wav2vec2-baseをペルシャ語データセットでファインチューニングした音声認識モデルで、主にペルシャ語音声からテキストへの変換タスクに使用されます。
音声認識
Transformers

W
zoha
120
0
Sharif Wav2vec2
MIT
Sharif Wav2vec2のペルシャ語向けファインチューニング版で、Common Voiceのペルシャ語サンプルでトレーニングされ、自動音声認識タスクをサポートします。
音声認識
Transformers その他

S
SLPL
88
16
Wav2vec2 Large Xlsr Persian V3
Apache-2.0
これはfacebook/wav2vec2-large-xlsr-53モデルをcommon_voiceデータセットでファインチューニングしたペルシャ語音声認識モデルです。
音声認識
Transformers

W
masoumehb
21
0
Wav2vec2 Base Common Voice Fa Demo Colab
Apache-2.0
このモデルはfacebook/wav2vec2-baseをファインチューニングしたペルシャ語音声認識モデルで、ペルシャ語音声からテキストへの変換タスクに適しています。
音声認識
Transformers

W
zoha
15
0
Xls R 1b Fa Cv8
ペルシャ語Common Voiceデータセットでファインチューニングされた自動音声認識モデル
音声認識
Transformers その他

X
ghofrani
27
2
Wav2vec2 Large Xlsr Persian V3
Facebookのwav2vec2-large-xlsr-53モデルをペルシャ語Common Voiceデータセットでファインチューニングした自動音声認識(ASR)モデル
音声認識
Transformers その他

W
m3hrdadfi
1,888
37
Xlsr Fa Lm
汎用音声ペルシャ語データでファインチューニングされたXLS-R-300m音声認識モデル
音声認識
Transformers その他

X
manifoldix
16
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98