D

Distil Medium.en

distil-whisperによって開発
Distil-WhisperはWhisperモデルの蒸留バージョンで、オリジナルより6倍速く、サイズが49%縮小され、英語音声認識タスクでオリジナルに近い性能を維持しています。
ダウンロード数 186.85k
リリース時間 : 10/24/2023

モデル概要

Distil-Whisperは大規模な擬似ラベル知識蒸留技術を用いてWhisperモデルから得られた軽量バリアントで、効率的な英語音声認識のために設計されています。

モデル特徴

効率的な推論
オリジナルWhisperより6倍速く、リアルタイムアプリケーションに適しています
コンパクトモデル
サイズが49%縮小され、メモリとストレージの要件を削減
高性能
分布外評価セットでオリジナルの1%以内の単語誤り率(WER)を維持
長文文字起こし最適化
チャンクアルゴリズムを採用し、長文文字起こし速度が逐次アルゴリズムより9倍速い

モデル能力

英語音声認識
短音声文字起こし(<30秒)
長音声文字起こし(>30秒)
推論デコード(Whisperの補助モデルとして)

使用事例

音声文字起こし
会議議事録
英語の会議内容を自動的に文字起こし
高精度な文字記録
ポッドキャスト文字起こし
英語ポッドキャストの内容をテキストに変換
検索可能なテキストコンテンツを迅速に生成
支援技術
リアルタイム字幕生成
英語動画コンテンツにリアルタイム字幕を生成
低遅延の字幕表示
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase