D

Distil Large V3.5

由distil-whisper開發
Distil-Whisper是OpenAI Whisper-Large-v3的知識蒸餾版本,通過大規模偽標籤訓練實現高效語音識別。
下載量 4,804
發布時間 : 12/5/2024

模型概述

Distil-Large-v3.5是Distil-Whisper英語系列的最新成員,在保持高效性的同時提供更優性能,訓練數據量達98,000小時,採用'耐心'教師模型策略和SpecAugment數據增強技術。

模型特點

高效推理
比Whisper-Large-v3-Turbo快約1.5倍,同時保持相近的準確率
知識蒸餾優化
採用'耐心'教師模型策略和SpecAugment數據增強技術,訓練數據量達98,000小時
推測解碼兼容
適合作為Whisper-Large-v3推測解碼的草稿模型,可實現約2倍推理加速

模型能力

短格式語音轉錄
長格式語音轉錄
時間戳生成
英語語音識別

使用案例

語音轉錄
會議記錄
將會議錄音轉換為文字記錄
詞錯誤率(WER)約7.08%
播客轉錄
將長格式音頻內容轉換為文字
長格式WER約11.39%
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase