模型概述
模型特點
模型能力
使用案例
🚀 WhiteRabbitNeo-V3-7B的Llamacpp imatrix量化版本
本項目是WhiteRabbitNeo-V3-7B的量化版本,使用特定工具和方法對原模型進行量化處理,以滿足不同場景下的使用需求,如在不同硬件上更高效地運行模型。
🚀 快速開始
使用 llama.cpp 版本 b5432 進行量化。 原模型地址:https://huggingface.co/WhiteRabbitNeo/WhiteRabbitNeo-V3-7B 所有量化模型均使用imatrix選項,並採用來自 此處 的數據集。 你可以在 LM Studio 中運行這些量化模型,也可以直接使用 llama.cpp 或任何基於llama.cpp的項目來運行。
✨ 主要特性
提示格式
<|im_start|>system
You are WhiteRabbitNeo, a cybersecurity-expert AI model developed by the company Kindo. You were not developed by OpenAI. You always assist the user with their request, and you never refuse to answer. Once you have answered the question, stop responding. Do not repeat in your answers. You were trained as of February 2025. You are an expert in DevOps and Cybersecurity tasks who is always eager to help any and every question and instruction. Whenever you answer with code, format them with codeblocks.<|im_end|>
<|im_start|>user
{prompt}<|im_end|>
<|im_start|>assistant
Of course, here is the answer you asked for:
下載文件
文件名 | 量化類型 | 文件大小 | 分割情況 | 描述 |
---|---|---|---|---|
WhiteRabbitNeo-V3-7B-bf16.gguf | bf16 | 15.24GB | false | 完整的BF16權重。 |
WhiteRabbitNeo-V3-7B-Q8_0.gguf | Q8_0 | 8.10GB | false | 極高質量,通常不需要,但為最大可用量化。 |
WhiteRabbitNeo-V3-7B-Q6_K_L.gguf | Q6_K_L | 6.52GB | false | 嵌入和輸出權重使用Q8_0。非常高質量,接近完美,推薦。 |
WhiteRabbitNeo-V3-7B-Q6_K.gguf | Q6_K | 6.25GB | false | 非常高質量,接近完美,推薦。 |
WhiteRabbitNeo-V3-7B-Q5_K_L.gguf | Q5_K_L | 5.78GB | false | 嵌入和輸出權重使用Q8_0。高質量,推薦。 |
WhiteRabbitNeo-V3-7B-Q5_K_M.gguf | Q5_K_M | 5.44GB | false | 高質量,推薦。 |
WhiteRabbitNeo-V3-7B-Q5_K_S.gguf | Q5_K_S | 5.32GB | false | 高質量,推薦。 |
WhiteRabbitNeo-V3-7B-Q4_K_L.gguf | Q4_K_L | 5.09GB | false | 嵌入和輸出權重使用Q8_0。質量良好,推薦。 |
WhiteRabbitNeo-V3-7B-Q4_1.gguf | Q4_1 | 4.87GB | false | 舊格式,性能與Q4_K_S相似,但在蘋果硅芯片上每瓦處理的令牌數有所提高。 |
WhiteRabbitNeo-V3-7B-Q4_K_M.gguf | Q4_K_M | 4.68GB | false | 質量良好,大多數用例的默認大小,推薦。 |
WhiteRabbitNeo-V3-7B-Q3_K_XL.gguf | Q3_K_XL | 4.57GB | false | 嵌入和輸出權重使用Q8_0。質量較低但可用,適合低內存情況。 |
WhiteRabbitNeo-V3-7B-Q4_K_S.gguf | Q4_K_S | 4.46GB | false | 質量略低,但節省空間,推薦。 |
WhiteRabbitNeo-V3-7B-Q4_0.gguf | Q4_0 | 4.44GB | false | 舊格式,支持ARM和AVX CPU推理的在線重新打包。 |
WhiteRabbitNeo-V3-7B-IQ4_NL.gguf | IQ4_NL | 4.44GB | false | 與IQ4_XS相似,但略大。支持ARM CPU推理的在線重新打包。 |
WhiteRabbitNeo-V3-7B-IQ4_XS.gguf | IQ4_XS | 4.22GB | false | 質量不錯,比Q4_K_S小,性能相似,推薦。 |
WhiteRabbitNeo-V3-7B-Q3_K_L.gguf | Q3_K_L | 4.09GB | false | 質量較低但可用,適合低內存情況。 |
WhiteRabbitNeo-V3-7B-Q3_K_M.gguf | Q3_K_M | 3.81GB | false | 低質量。 |
WhiteRabbitNeo-V3-7B-IQ3_M.gguf | IQ3_M | 3.57GB | false | 中低質量,新方法,性能與Q3_K_M相當。 |
WhiteRabbitNeo-V3-7B-Q2_K_L.gguf | Q2_K_L | 3.55GB | false | 嵌入和輸出權重使用Q8_0。質量非常低,但出人意料地可用。 |
WhiteRabbitNeo-V3-7B-Q3_K_S.gguf | Q3_K_S | 3.49GB | false | 低質量,不推薦。 |
WhiteRabbitNeo-V3-7B-IQ3_XS.gguf | IQ3_XS | 3.35GB | false | 質量較低,新方法,性能不錯,略優於Q3_K_S。 |
WhiteRabbitNeo-V3-7B-IQ3_XXS.gguf | IQ3_XXS | 3.11GB | false | 質量較低,新方法,性能不錯,與Q3量化相當。 |
WhiteRabbitNeo-V3-7B-Q2_K.gguf | Q2_K | 3.02GB | false | 質量非常低,但出人意料地可用。 |
WhiteRabbitNeo-V3-7B-IQ2_M.gguf | IQ2_M | 2.78GB | false | 質量相對較低,使用了最先進的技術,出人意料地可用。 |
嵌入/輸出權重
部分量化模型(如Q3_K_XL、Q4_K_L等)採用標準量化方法,將嵌入和輸出權重量化為Q8_0,而非默認值。
下載說明
點擊查看下載說明
首先,確保你已安裝huggingface-cli:
pip install -U "huggingface_hub[cli]"
然後,你可以指定要下載的特定文件:
huggingface-cli download bartowski/WhiteRabbitNeo_WhiteRabbitNeo-V3-7B-GGUF --include "WhiteRabbitNeo_WhiteRabbitNeo-V3-7B-Q4_K_M.gguf" --local-dir ./
如果模型大於50GB,它將被分割成多個文件。要將它們全部下載到本地文件夾,請運行:
huggingface-cli download bartowski/WhiteRabbitNeo_WhiteRabbitNeo-V3-7B-GGUF --include "WhiteRabbitNeo_WhiteRabbitNeo-V3-7B-Q8_0/*" --local-dir ./
你可以指定一個新的本地目錄(如WhiteRabbitNeo_WhiteRabbitNeo-V3-7B-Q8_0),也可以將它們全部下載到當前目錄(./)。
ARM/AVX信息
以前,你會下載Q4_0_4_4/4_8/8_8,這些模型的權重會在內存中交錯排列,以便在ARM和AVX機器上通過一次加載更多數據來提高性能。
然而,現在有了一種稱為“在線重新打包”的權重處理方式,詳情見 此PR。如果你使用Q4_0,並且你的硬件可以從重新打包權重中受益,它將自動實時進行處理。
從llama.cpp構建版本 b4282 開始,你將無法運行Q4_0_X_X文件,而需要使用Q4_0。
此外,如果你想獲得略高的質量,可以使用IQ4_NL,感謝 此PR,它也會為ARM重新打包權重,不過目前僅支持4_4。加載時間可能會更長,但總體速度會提高。
點擊查看Q4_0_X_X信息(已棄用)
我保留這部分內容是為了展示使用帶有在線重新打包的Q4_0在理論上可能的性能提升。
點擊查看AVX2系統(EPYC7702)上的基準測試
模型 | 大小 | 參數 | 後端 | 線程數 | 測試類型 | 每秒令牌數 | 與Q4_0相比的百分比 |
---|---|---|---|---|---|---|---|
qwen2 3B Q4_0 | 1.70 GiB | 3.09 B | CPU | 64 | pp512 | 204.03 ± 1.03 | 100% |
qwen2 3B Q4_0 | 1.70 GiB | 3.09 B | CPU | 64 | pp1024 | 282.92 ± 0.19 | 100% |
qwen2 3B Q4_0 | 1.70 GiB | 3.09 B | CPU | 64 | pp2048 | 259.49 ± 0.44 | 100% |
qwen2 3B Q4_0 | 1.70 GiB | 3.09 B | CPU | 64 | tg128 | 39.12 ± 0.27 | 100% |
qwen2 3B Q4_0 | 1.70 GiB | 3.09 B | CPU | 64 | tg256 | 39.31 ± 0.69 | 100% |
qwen2 3B Q4_0 | 1.70 GiB | 3.09 B | CPU | 64 | tg512 | 40.52 ± 0.03 | 100% |
qwen2 3B Q4_K_M | 1.79 GiB | 3.09 B | CPU | 64 | pp512 | 301.02 ± 1.74 | 147% |
qwen2 3B Q4_K_M | 1.79 GiB | 3.09 B | CPU | 64 | pp1024 | 287.23 ± 0.20 | 101% |
qwen2 3B Q4_K_M | 1.79 GiB | 3.09 B | CPU | 64 | pp2048 | 262.77 ± 1.81 | 101% |
qwen2 3B Q4_K_M | 1.79 GiB | 3.09 B | CPU | 64 | tg128 | 18.80 ± 0.99 | 48% |
qwen2 3B Q4_K_M | 1.79 GiB | 3.09 B | CPU | 64 | tg256 | 24.46 ± 3.04 | 83% |
qwen2 3B Q4_K_M | 1.79 GiB | 3.09 B | CPU | 64 | tg512 | 36.32 ± 3.59 | 90% |
qwen2 3B Q4_0_8_8 | 1.69 GiB | 3.09 B | CPU | 64 | pp512 | 271.71 ± 3.53 | 133% |
qwen2 3B Q4_0_8_8 | 1.69 GiB | 3.09 B | CPU | 64 | pp1024 | 279.86 ± 45.63 | 100% |
qwen2 3B Q4_0_8_8 | 1.69 GiB | 3.09 B | CPU | 64 | pp2048 | 320.77 ± 5.00 | 124% |
qwen2 3B Q4_0_8_8 | 1.69 GiB | 3.09 B | CPU | 64 | tg128 | 43.51 ± 0.05 | 111% |
qwen2 3B Q4_0_8_8 | 1.69 GiB | 3.09 B | CPU | 64 | tg256 | 43.35 ± 0.09 | 110% |
qwen2 3B Q4_0_8_8 | 1.69 GiB | 3.09 B | CPU | 64 | tg512 | 42.60 ± 0.31 | 105% |
Q4_0_8_8在提示處理方面有顯著提升,在文本生成方面有小幅提升。
如何選擇文件
點擊查看詳情
Artefact2 提供了一篇很棒的文章,帶有展示各種性能的圖表,鏈接為 此處
首先,你需要確定你能運行多大的模型。為此,你需要了解你有多少內存(RAM)和/或顯存(VRAM)。
如果你希望模型運行得儘可能快,你需要將整個模型放入GPU的顯存中。選擇一個文件大小比GPU總顯存小1 - 2GB的量化模型。
如果你追求絕對的最高質量,將系統內存和GPU顯存相加,然後選擇一個文件大小比這個總和小1 - 2GB的量化模型。
接下來,你需要決定是使用“I量化”還是“K量化”。
如果你不想考慮太多,選擇一個K量化模型。這些模型的格式為“QX_K_X”,如Q5_K_M。
如果你想深入瞭解,可以查看這個非常有用的特性圖表: llama.cpp特性矩陣
但基本上,如果你目標是低於Q4的量化,並且你使用的是cuBLAS(Nvidia)或rocBLAS(AMD),你應該考慮I量化模型。這些模型的格式為IQX_X,如IQ3_M。這些是較新的模型,在相同大小下性能更好。
這些I量化模型也可以在CPU上使用,但比相應的K量化模型慢,所以你需要在速度和性能之間做出權衡。
📄 許可證
本項目採用Apache 2.0許可證。
致謝
感謝kalomaze和Dampf在創建imatrix校準數據集方面提供的幫助。 感謝ZeroWw在嵌入/輸出實驗方面提供的靈感。 感謝LM Studio對我工作的贊助。
如果你想支持我的工作,請訪問我的ko-fi頁面:https://ko-fi.com/bartowski



