D

Distil Large V3.5

distil-whisperによって開発
Distil-WhisperはOpenAI Whisper-Large-v3の知識蒸留バージョンで、大規模な擬似ラベル訓練により高効率な音声認識を実現。
ダウンロード数 4,804
リリース時間 : 12/5/2024

モデル概要

Distil-Large-v3.5はDistil-Whisper英語シリーズの最新メンバーで、効率性を維持しながら更に優れた性能を提供。訓練データ量は98,000時間で、'忍耐強い'教師モデル戦略とSpecAugmentデータ拡張技術を採用。

モデル特徴

高効率推論
Whisper-Large-v3-Turboより約1.5倍高速で、同等の精度を維持
知識蒸留最適化
'忍耐強い'教師モデル戦略とSpecAugmentデータ拡張技術を採用、訓練データ量98,000時間
推測デコード互換
Whisper-Large-v3の推測デコード用ドラフトモデルとして適しており、約2倍の推論加速が可能

モデル能力

短形式音声文字起こし
長形式音声文字起こし
タイムスタンプ生成
英語音声認識

使用事例

音声文字起こし
会議議事録
会議録音を文字記録に変換
単語誤り率(WER)約7.08%
ポッドキャスト文字起こし
長形式音声コンテンツを文字に変換
長形式WER約11.39%
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase