🚀 mlabonne的Qwen3-1.7B-abliterated的Llamacpp imatrix量化版本
本項目是對mlabonne的Qwen3-1.7B-abliterated模型進行量化處理後的版本。通過量化,可在不同硬件條件下更高效地運行該模型。
🚀 快速開始
量化工具
使用 llama.cpp 的 b5228 版本進行量化。
原始模型
原始模型可從 這裡 獲取。
運行方式
✨ 主要特性
提示格式
<|im_start|>system
{system_prompt}<|im_end|>
<|im_start|>user
{prompt}<|im_end|>
<|im_start|>assistant
嵌入/輸出權重
部分量化版本(如Q3_K_XL、Q4_K_L等)採用標準量化方法,將嵌入和輸出權重量化為Q8_0,而非默認值。
ARM/AVX信息
- 以前,會下載Q4_0_4_4/4_8/8_8版本,其權重在內存中交錯排列,以提高ARM和AVX機器的性能。
- 現在,有了“在線重新打包”功能,詳情見 此PR。若使用Q4_0且硬件適合重新打包權重,系統將自動進行。
- 從llama.cpp的 b4282 版本開始,無法運行Q4_0_X_X文件,需使用Q4_0。
- 若想獲得更好的質量,可使用IQ4_NL,見 此PR,它會為ARM重新打包權重,雖加載時間可能較長,但整體速度會提升。
📦 安裝指南
使用huggingface-cli下載
點擊查看下載說明
首先,確保已安裝huggingface-cli:
pip install -U "huggingface_hub[cli]"
然後,可指定要下載的特定文件:
huggingface-cli download bartowski/mlabonne_Qwen3-1.7B-abliterated-GGUF --include "mlabonne_Qwen3-1.7B-abliterated-Q4_K_M.gguf" --local-dir ./
若模型大於50GB,會被拆分為多個文件。若要將所有文件下載到本地文件夾,可運行:
huggingface-cli download bartowski/mlabonne_Qwen3-1.7B-abliterated-GGUF --include "mlabonne_Qwen3-1.7B-abliterated-Q8_0/*" --local-dir ./
可指定新的本地目錄(如mlabonne_Qwen3-1.7B-abliterated-Q8_0),或直接下載到當前目錄(./)。
📚 詳細文檔
下載文件選擇
點擊查看詳情
Artefact2提供了一份很棒的文檔,包含各種性能圖表,可從 這裡 查看。
選擇文件時,需考慮以下幾點:
- 確定可運行的模型大小:需瞭解系統的RAM和/或VRAM容量。
- 若想模型運行速度最快,應選擇文件大小比GPU的VRAM小1 - 2GB的量化版本。
- 若追求最高質量,可將系統RAM和GPU的VRAM相加,選擇文件大小比該總和小1 - 2GB的量化版本。
- 選擇'I-quant'或'K-quant':
- 若不想過多考慮,可選擇K-quant,格式為'QX_K_X',如Q5_K_M。
- 若想深入瞭解,可查看 llama.cpp特性矩陣。一般來說,若目標是Q4以下,且使用cuBLAS(Nvidia)或rocBLAS(AMD),應考慮I-quant,格式為IQX_X,如IQ3_M。I-quant較新,相同大小下性能更好,但在CPU上運行比K-quant慢,需權衡速度和性能。
下載文件列表
📄 許可證
文檔未提及相關許可證信息,故跳過此章節。
🔧 技術細節
文檔未提供具體的技術實現細節,故跳過此章節。
致謝
感謝kalomaze和Dampf協助創建imatrix校準數據集。
感謝ZeroWw啟發了對嵌入/輸出的實驗。
感謝LM Studio贊助我的工作。
若想支持我的工作,請訪問我的ko-fi頁面:https://ko-fi.com/bartowski