Parakeet Ctc 0.6b
Parakeet CTC 0.6BはNVIDIA NeMoとSuno.aiが共同開発した自動音声認識モデルで、FastConformerアーキテクチャに基づき、約6億のパラメータを持ち、英語音声の書き起こしをサポートします。
音声認識 英語
P
nvidia
6,528
13
Parakeet Rnnt 1.1b
Parakeet RNNT 1.1BはNVIDIA NeMoとSuno.aiが共同開発した自動音声認識モデルで、FastConformer Transducerアーキテクチャに基づき、約11億のパラメータを持ち、英語音声の書き起こしをサポートします。
音声認識 英語
P
nvidia
13.18k
124
Assignment1 Joane
MIT
自動音声認識(ASR)のための音声からテキストへの変換(S2T)モデル
音声認識
Transformers 英語

A
Classroom-workshop
22
0
Assignment1 Jane
MIT
s2t-small-librispeech-asr は、自動音声認識(ASR)のための音声からテキストへの変換器(S2T)モデルで、シーケンス・ツー・シーケンス変換器アーキテクチャに基づいています。
音声認識
Transformers 英語

A
Classroom-workshop
29
0
Wav2vec2 Large 960h Lv60 Self 4 Gram
Apache-2.0
FacebookのWav2Vec2-Large-960h-lv60-selfモデルを基に、英語4-gram言語モデルを追加して音声認識精度を向上
音声認識 英語
W
patrickvonplaten
22
4
Wav2vec2 Large 960h Lv60 Self
Apache-2.0
Facebookが開発したWav2Vec2の大規模モデルで、960時間のLibri-LightとLibrispeechの音声データを基に事前学習と微調整を行い、自己学習目標を採用し、LibriSpeechテストセットでSOTAの結果を達成しました。
音声認識 英語
W
facebook
56.00k
146
Wav2vec2 Tiny Random Robust
Apache-2.0
Wav2Vec2アーキテクチャのランダム初期化バージョンに基づく、ロバスト性テスト用に設計された軽量級の自動音声認識(ASR)モデルです。
音声認識
Transformers 英語

W
patrickvonplaten
406
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98