Whisper Large V3 Turbo Shqip
MIT
OpenAI Whisper Large v3 Turboをアルバニア語向けに最適化した音声認識モデルで、標準アルバニア語とゲグ方言をサポート
音声認識
Transformers その他

W
Kushtrim
143
4
Hubert Base Korean
Apache-2.0
Hubert(Hidden-Unit BERT)はFacebookが提案した音声表現学習モデルで、自己教師あり学習方式で生の波形信号から直接音声特徴を学習します。
音声認識 韓国語
H
team-lucid
54
26
Wav2vec2 Large It Voxpopuli
VoxPopuliイタリア語無注釈データで事前学習された音声認識モデル、FacebookのWav2Vec2アーキテクチャを採用
音声認識 その他
W
facebook
55
0
Wav2vec2 Large Es Voxpopuli
VoxPopuliコーパスのスペイン語サブセットでトレーニングされた大規模音声事前学習モデルで、スペイン語音声認識タスクに適しています
音声認識 スペイン語
W
facebook
117.04k
1
Wav2vec2 Base Es Voxpopuli
VoxPopuliスペイン語無注釈データで事前学習されたWav2Vec2音声認識基本モデル
音声認識
Transformers スペイン語

W
facebook
39
2
Wav2vec2 Base Fr Voxpopuli
VoxPopuliフランス語の未ラベルデータで事前学習されたWav2Vec2ベースモデル、フランス語音声認識タスクに適しています
音声認識
Transformers フランス語

W
facebook
30
0
Wav2vec2 Large Fr Voxpopuli
VoxPopuliフランス語コーパスで事前学習された大規模音声認識モデル、フランス語音声からテキストへの変換タスクをサポート
音声認識 フランス語
W
facebook
31
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98