Whisper Large V3 Japanese 4k Steps Ct2
これはOpenAI Whisper large-v3モデルのCTranslate2変換バージョンで、特に日本語に対して4000ステップの追加トレーニングを行い、多言語音声認識をサポートしています。
ダウンロード数 54
リリース時間 : 2/20/2024
モデル概要
Whisper large-v3を基にした音声認識モデルで、CTranslate2形式に変換して推論効率を向上させ、多言語音声から文字への変換タスクをサポートします。
モデル特徴
効率的な推論
CTranslate2形式に変換後、オリジナルのPyTorch実装よりも推論速度が向上
多言語サポート
100以上の言語の音声認識をサポート
日本語最適化
特に日本語に対して4000ステップの追加トレーニングを実施
FP16量子化
モデル重みをFP16形式で保存し、ロード時に計算精度を調整可能
モデル能力
音声から文字への変換
多言語音声認識
音声書き起こし
使用事例
メディア書き起こし
ポッドキャスト書き起こし
ポッドキャストの音声コンテンツを自動的に文字に変換
高精度な書き起こし結果、多言語サポート
動画字幕生成
動画コンテンツに自動的に字幕を生成
多言語字幕生成をサポート
会議記録
会議録音書き起こし
会議の録音を自動的に文字記録に変換
会議記録の効率向上、後続の検索を容易に
言語学習
言語学習支援
言語学習者のリスニングと発音練習を支援
正確な音声認識フィードバックを提供
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98