🚀 上傳的模型
本項目上傳了一個經過微調的模型,該模型基於特定的基礎模型進行訓練,具備高效訓練和高質量語音合成等特點。
模型信息
屬性 |
詳情 |
基礎模型 |
unsloth/orpheus-3b-0.1-ft-unsloth-bnb-4bit |
標籤 |
text-generation-inference、transformers、unsloth、llama、trl、tts、text-to-speech、gguf、llama-cpp-python |
許可證 |
apache-2.0 |
庫名稱 |
transformers |
語言 |
en |
數據集 |
MrDragonFox/Elise |
模型微調信息
- 微調者:Prince-1
- 許可證:apache-2.0
- 基礎微調模型:unsloth/orpheus-3b-0.1-ft-unsloth-bnb-4bit
這個Llama模型使用 Unsloth 和Huggingface的TRL庫進行訓練,速度提升了2倍。

Orpheus TTS是一款基於Llama的先進語音大語言模型(Speech-LLM),專為高質量、富有同理心的文本轉語音生成而設計。該模型經過微調,能夠實現接近人類水平的語音合成,在清晰度、表現力和即時流式傳輸性能方面表現出色。
✨ 主要特性
模型能力
- 類人語音:具有自然的語調、情感和節奏,優於當前最先進的閉源模型。
- 零樣本語音克隆:無需事先微調即可克隆語音。
- 情感和語調引導:通過簡單的標籤控制語音和情感特徵。
- 低延遲:即時應用的流式傳輸延遲約為200ms,使用輸入流式傳輸可將延遲降低至約100ms。
模型資源
🔧 技術細節
量化
模型已轉換為 GGUF
格式。
可選擇的 quantization_method
如下:
- not_quantized:推薦。轉換速度快,推理速度慢,文件大。
- fast_quantized:推薦。轉換速度快,推理效果一般,文件大小適中。
- quantized:推薦。轉換速度慢,推理速度快,文件小。
- f32:不推薦。保留100%的精度,但速度極慢且佔用大量內存。
- f16:轉換速度最快,保留100%的精度,但速度慢且佔用大量內存。
- q8_0:轉換速度快,資源使用高,但通常可以接受。
- q4_k_m:推薦。對
attention.wv
和 feed_forward.w2
張量的一半使用Q6_K,其餘使用Q4_K。
- q5_k_m:推薦。對
attention.wv
和 feed_forward.w2
張量的一半使用Q6_K,其餘使用Q5_K。
- q2_k:對
attention.vw
和 feed_forward.w2
張量使用Q4_K,對其他張量使用Q2_K。
- q3_k_l:對
attention.wv
、attention.wo
和 feed_forward.w2
張量使用Q5_K,其餘使用Q3_K。
- q3_k_m:對
attention.wv
、attention.wo
和 feed_forward.w2
張量使用Q4_K,其餘使用Q3_K。
- q3_k_s:對所有張量使用Q3_K。
- q4_0:原始的4位量化方法。
- q4_1:比q4_0精度高,但不如q5_0。不過,推理速度比q5模型快。
- q4_k_s:對所有張量使用Q4_K。
- q4_k:q4_k_m的別名。
- q5_k:q5_k_m的別名。
- q5_0:精度更高,資源使用更多,推理速度更慢。
- q5_1:精度更高,資源使用更多,推理速度更慢。
- q5_k_s:對所有張量使用Q5_K。
- q6_k:對所有張量使用Q8_K。
💻 使用示例
基礎用法
模型使用 llama-cpp-python
模塊進行調用,該模塊為llama-cpp提供了Python綁定。
from llama-cpp-python import LLM
📄 許可證
本模型使用 apache-2.0
許可證。
📚 模型使用規範
⚠️ 重要提示
未經同意,請勿使用我們的模型進行冒充、傳播錯誤信息或欺騙行為(包括虛假新聞或欺詐性電話),或任何非法或有害活動。使用此模型即表示您同意遵守所有適用的法律和道德準則。我們對任何使用行為不承擔責任。