Parakeet Tdt 0.6b V2 Mlx
これは自動音声認識モデルで、MLXに適したバージョンに変換されており、高速に推論を行うことができます。
音声認識
Safetensors 英語
P
senstella
183
6
Faster Distil Whisper Large V3.5
MIT
Distil-WhisperはWhisperモデルの蒸留版で、自動音声認識(ASR)タスク向けに最適化され、より高速な推論を提供します。
音声認識 英語
F
Purfview
565
2
Faster Distil Whisper Large V3.5
MIT
Distil-Whisper large-v3.5を変換したCTranslate2フォーマットモデルで、効率的な音声認識に使用
音声認識 英語
F
deepdml
58.15k
2
Distil Large V3.5 ONNX
MIT
Distil-WhisperはOpenAI Whisper-Large-v3の知識蒸留バージョンで、より優れたパフォーマンスと効率性を提供します。
音声認識
Transformers 英語

D
distil-whisper
25
1
Distil Large V3.5 Ct2
MIT
Distil-WhisperはWhisperモデルの蒸留版で、大規模な擬似ラベル技術により高効率な音声認識を実現
音声認識 英語
D
distil-whisper
264
3
Distil Large V3.5
MIT
Distil-WhisperはOpenAI Whisper-Large-v3の知識蒸留バージョンで、大規模な擬似ラベル訓練により高効率な音声認識を実現。
音声認識
Transformers 英語

D
distil-whisper
4,804
25
Faster Whisper V2 D4
Apache-2.0
これはWhisperモデルを基に最適化されたヘブライ語と英語の音声認識モデルで、ivrit.aiによって開発されました。
音声認識 複数言語対応
F
ivrit-ai
696
16
Parakeet Tdt 1.1b
Parakeet TDT 1.1BはNVIDIA NeMoとSuno.aiが共同開発した自動音声認識(ASR)モデルで、音声を小文字の英字に文字起こしできます。
音声認識 英語
P
nvidia
12.27k
90
Faster Distil Whisper Medium.en
MIT
これはdistil-whisper/distil-medium.enモデルをCTranslate2形式に変換したバージョンで、高効率音声認識タスクに使用されます。
音声認識 英語
F
Systran
6,155
4
Sew Tiny 100k
Apache-2.0
SEW-tinyはASAPP Researchによって開発された圧縮高効率型音声事前学習モデルで、16kHzサンプリングの音声オーディオを基に事前学習され、様々な下流音声タスクに適用可能です。
音声認識
Transformers 複数言語対応

S
asapp
1,080
3
Sew Tiny 100k Ft Ls100h
Apache-2.0
SEW(圧縮高効率版Wav2vec)は、ASAPP Researchによって開発された音声認識の事前学習モデルで、性能と効率の面でwav2vec 2.0より優れています。
音声認識
Transformers 複数言語対応

S
asapp
736
1
Sew D Base Plus 400k Ft Ls100h
Apache-2.0
SEW-D-base+ は ASAPP Research によって開発された高効率音声認識モデルで、16kHzサンプリングの音声オーディオを基に事前学習され、LibriSpeechデータセットで優れた性能を発揮します。
音声認識
Transformers 英語

S
asapp
66
4
Sew D Mid K127 400k Ft Ls100h
Apache-2.0
SEW-D-mid-k127はASAPP Researchが開発した高効率音声認識事前学習モデルで、性能と効率の面でwav2vec 2.0と比べて大幅な改善が見られます。
音声認識
Transformers 英語

S
asapp
16
0
Sew D Tiny 100k Ft Ls100h
Apache-2.0
SEW-D-tinyはASAPP Researchによって開発された高効率音声認識事前学習モデルで、性能と効率のバランスに重点を置いています。
音声認識
Transformers 英語

S
asapp
24.55k
2
Sew D Mid 400k Ft Ls100h
Apache-2.0
SEW-D-midはASAPP Researchが開発した音声事前学習モデルで、自動音声認識タスクに焦点を当て、性能と効率の良いバランスを実現しています。
音声認識
Transformers 英語

S
asapp
20
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98