🚀 Ultravox模型
Ultravox是一個多模態語音大語言模型,它基於預訓練的[Llama3.2 - 1B - Instruct](https://huggingface.co/meta - llama/Llama - 3.2 - 1B)和[whisper - large - v3 - turbo](https://huggingface.co/openai/whisper - large - v3 - turbo)構建。該模型可以同時處理語音和文本輸入,具有廣泛的應用前景,如語音代理、語音翻譯等。
🚀 快速開始
要使用該模型,可嘗試以下代碼:
import transformers
import numpy as np
import librosa
pipe = transformers.pipeline(model='fixie-ai/ultravox-v0_5-llama-3_2-1b', trust_remote_code=True)
path = "<path-to-input-audio>"
audio, sr = librosa.load(path, sr=16000)
turns = [
{
"role": "system",
"content": "You are a friendly and helpful character. You love to answer questions for people."
},
]
pipe({'audio': audio, 'turns': turns, 'sampling_rate': sr}, max_new_tokens=30)
✨ 主要特性
- 多模態輸入:可以同時處理語音和文本輸入,例如文本系統提示和語音用戶消息。
- 廣泛應用:可作為語音代理,還能進行語音到語音的翻譯、語音音頻分析等。
- 未來擴展:計劃在未來版本中擴展詞表,支持生成語義和聲學音頻令牌,從而實現語音輸出。
📦 安裝指南
運行示例代碼前,需要安裝相關依賴:
pip install transformers peft librosa
💻 使用示例
基礎用法
import transformers
import numpy as np
import librosa
pipe = transformers.pipeline(model='fixie-ai/ultravox-v0_5-llama-3_2-1b', trust_remote_code=True)
path = "<path-to-input-audio>"
audio, sr = librosa.load(path, sr=16000)
turns = [
{
"role": "system",
"content": "You are a friendly and helpful character. You love to answer questions for people."
},
]
pipe({'audio': audio, 'turns': turns, 'sampling_rate': sr}, max_new_tokens=30)
📚 詳細文檔
模型詳情
模型描述
Ultravox是一個多模態模型,能夠將語音和文本作為輸入(例如,文本系統提示和語音用戶消息)。模型的輸入是帶有特殊 <|audio|>
偽令牌的文本提示,模型處理器會用從輸入音頻派生的嵌入替換這個魔法令牌。以合併後的嵌入作為輸入,模型將像往常一樣生成輸出文本。
在Ultravox的未來版本中,計劃擴展詞表,以支持生成語義和聲學音頻令牌,然後將其輸入到聲碼器中以產生語音輸出。此版本的模型未應用偏好調整。
模型來源
- 倉庫:https://ultravox.ai
- 演示:見倉庫
訓練詳情
訓練數據
訓練數據集是自動語音識別(ASR)數據集的混合,擴展了由Llama 3.1 8B生成的延續內容,以及語音翻譯數據集,這在翻譯評估中帶來了適度的改進。
訓練過程
通過知識蒸餾進行有監督的語音指令微調。更多信息,請參閱Ultravox倉庫中的訓練代碼。
訓練超參數
- 訓練模式:BF16混合精度訓練
- 使用的硬件:8x H100 GPU
速度、大小、時間
可在TheFastest.ai的音頻標籤頁查看每日基準測試以及與其他現有模型的比較。
評估
|
Ultravox 0.5 1b |
Ultravox 0.5 8B |
Ultravox 0.5 70B |
covost2 en_ar |
1.55 |
12.99 |
20.21 |
covost2 en_ca |
8.06 |
31.54 |
40.01 |
covost2 en_de |
14.21 |
28.70 |
34.53 |
covost2 es_en |
24.97 |
40.19 |
43.29 |
covost2 ru_en |
24.12 |
42.13 |
48.99 |
covost2 zh_en |
4.76 |
17.22 |
21.37 |
big bench audio |
39.14 |
66.54 |
82.70 |
🔧 技術細節
模型使用預訓練的[Llama3.2 - 1B - Instruct](https://huggingface.co/meta - llama/Meta - Llama - 3.2 - 1B)主幹以及[whisper - large - v3 - turbo](https://huggingface.co/openai/whisper - large - v3 - turbo)的編碼器部分。多模態適配器經過訓練,Whisper編碼器進行了微調,而Llama模型保持凍結。使用知識蒸餾損失,Ultravox試圖匹配基於文本的Llama主幹的對數概率。
📄 許可證
本項目採用MIT許可證。