模型概述
模型特點
模型能力
使用案例
🚀 ServiceNow-AI的Apriel-Nemotron-15b-Thinker量化模型
本項目是對ServiceNow-AI的Apriel-Nemotron-15b-Thinker模型進行量化處理,使用特定工具和方法生成不同量化類型的文件,方便在不同硬件和場景下使用。
🚀 快速開始
使用 llama.cpp 的 b5284 版本進行量化。 原始模型地址:https://huggingface.co/ServiceNow-AI/Apriel-Nemotron-15b-Thinker
所有量化文件均使用imatrix選項,並使用來自 此處 的數據集生成。
你可以在 LM Studio 中運行這些量化文件,也可以直接使用 llama.cpp 或其他基於llama.cpp的項目來運行。
✨ 主要特性
提示格式
<|system|>
You are a thoughtful and systematic AI assistant built by ServiceNow Language Models (SLAM) lab. Before providing an answer, analyze the problem carefully and present your reasoning step by step. After explaining your thought process, provide the final solution in the following format: [BEGIN FINAL RESPONSE] ... [END FINAL RESPONSE].
{system_prompt}
<|end|>
<|user|>
{prompt}
<|end|>
<|assistant|>
Here are my reasoning steps:
下載文件
文件名 | 量化類型 | 文件大小 | 分割情況 | 描述 |
---|---|---|---|---|
Apriel-Nemotron-15b-Thinker-bf16.gguf | bf16 | 29.96GB | false | 完整的BF16權重。 |
Apriel-Nemotron-15b-Thinker-Q8_0.gguf | Q8_0 | 15.92GB | false | 極高質量,通常不需要,但為最大可用量化。 |
Apriel-Nemotron-15b-Thinker-Q6_K_L.gguf | Q6_K_L | 12.62GB | false | 嵌入和輸出權重使用Q8_0。非常高質量,接近完美,推薦。 |
Apriel-Nemotron-15b-Thinker-Q6_K.gguf | Q6_K | 12.29GB | false | 非常高質量,接近完美,推薦。 |
Apriel-Nemotron-15b-Thinker-Q5_K_L.gguf | Q5_K_L | 11.07GB | false | 嵌入和輸出權重使用Q8_0。高質量,推薦。 |
Apriel-Nemotron-15b-Thinker-Q5_K_M.gguf | Q5_K_M | 10.65GB | false | 高質量,推薦。 |
Apriel-Nemotron-15b-Thinker-Q5_K_S.gguf | Q5_K_S | 10.39GB | false | 高質量,推薦。 |
Apriel-Nemotron-15b-Thinker-Q4_K_L.gguf | Q4_K_L | 9.61GB | false | 嵌入和輸出權重使用Q8_0。質量良好,推薦。 |
Apriel-Nemotron-15b-Thinker-Q4_1.gguf | Q4_1 | 9.50GB | false | 舊格式,性能與Q4_K_S相似,但在蘋果硅芯片上每瓦處理的令牌數有所提高。 |
Apriel-Nemotron-15b-Thinker-Q4_K_M.gguf | Q4_K_M | 9.11GB | false | 質量良好,是大多數用例的默認大小,推薦。 |
Apriel-Nemotron-15b-Thinker-Q4_K_S.gguf | Q4_K_S | 8.66GB | false | 質量稍低,但節省更多空間,推薦。 |
Apriel-Nemotron-15b-Thinker-IQ4_NL.gguf | IQ4_NL | 8.64GB | false | 與IQ4_XS相似,但稍大。為ARM CPU推理提供在線重新打包功能。 |
Apriel-Nemotron-15b-Thinker-Q4_0.gguf | Q4_0 | 8.63GB | false | 舊格式,為ARM和AVX CPU推理提供在線重新打包功能。 |
Apriel-Nemotron-15b-Thinker-Q3_K_XL.gguf | Q3_K_XL | 8.58GB | false | 嵌入和輸出權重使用Q8_0。質量較低但可用,適合低內存情況。 |
Apriel-Nemotron-15b-Thinker-IQ4_XS.gguf | IQ4_XS | 8.20GB | false | 質量不錯,比Q4_K_S小,性能相似,推薦。 |
Apriel-Nemotron-15b-Thinker-Q3_K_L.gguf | Q3_K_L | 7.99GB | false | 質量較低但可用,適合低內存情況。 |
Apriel-Nemotron-15b-Thinker-Q3_K_M.gguf | Q3_K_M | 7.40GB | false | 低質量。 |
Apriel-Nemotron-15b-Thinker-IQ3_M.gguf | IQ3_M | 6.94GB | false | 中低質量,新方法,性能與Q3_K_M相當。 |
Apriel-Nemotron-15b-Thinker-Q3_K_S.gguf | Q3_K_S | 6.71GB | false | 低質量,不推薦。 |
Apriel-Nemotron-15b-Thinker-Q2_K_L.gguf | Q2_K_L | 6.45GB | false | 嵌入和輸出權重使用Q8_0。質量非常低,但出人意料地可用。 |
Apriel-Nemotron-15b-Thinker-IQ3_XS.gguf | IQ3_XS | 6.42GB | false | 質量較低,新方法,性能不錯,比Q3_K_S稍好。 |
Apriel-Nemotron-15b-Thinker-IQ3_XXS.gguf | IQ3_XXS | 5.99GB | false | 質量較低,新方法,性能不錯,與Q3量化相當。 |
Apriel-Nemotron-15b-Thinker-Q2_K.gguf | Q2_K | 5.79GB | false | 質量非常低,但出人意料地可用。 |
Apriel-Nemotron-15b-Thinker-IQ2_M.gguf | IQ2_M | 5.35GB | false | 相對低質量,使用最先進技術,出人意料地可用。 |
Apriel-Nemotron-15b-Thinker-IQ2_S.gguf | IQ2_S | 4.98GB | false | 低質量,使用最先進技術,可用。 |
Apriel-Nemotron-15b-Thinker-IQ2_XS.gguf | IQ2_XS | 4.72GB | false | 低質量,使用最先進技術,可用。 |
嵌入/輸出權重
部分量化文件(如Q3_K_XL、Q4_K_L等)採用標準量化方法,將嵌入和輸出權重量化為Q8_0,而非默認值。
ARM/AVX信息
以前,你會下載Q4_0_4_4/4_8/8_8文件,這些文件的權重會在內存中交錯排列,以便通過一次加載更多數據來提高ARM和AVX機器的性能。
然而,現在有了一種稱為“在線重新打包”的權重處理方式,詳情見 此PR。如果你使用Q4_0,並且你的硬件能從權重重新打包中受益,它將自動即時進行處理。
從llama.cpp構建版本 b4282 開始,你將無法運行Q4_0_X_X文件,而需要使用Q4_0。
此外,如果你想獲得稍好的質量,可以使用IQ4_NL,感謝 此PR,它也會為ARM重新打包權重,不過目前僅適用於4_4。加載時間可能會更長,但總體速度會提高。
點擊查看Q4_0_X_X信息(已棄用)
我保留這部分內容是為了展示使用帶有在線重新打包功能的Q4_0在性能上的潛在理論提升。
點擊查看AVX2系統(EPYC7702)上的基準測試
模型 | 大小 | 參數 | 後端 | 線程數 | 測試 | 每秒令牌數 | 與Q4_0相比的百分比 |
---|---|---|---|---|---|---|---|
qwen2 3B Q4_0 | 1.70 GiB | 3.09 B | CPU | 64 | pp512 | 204.03 ± 1.03 | 100% |
qwen2 3B Q4_0 | 1.70 GiB | 3.09 B | CPU | 64 | pp1024 | 282.92 ± 0.19 | 100% |
qwen2 3B Q4_0 | 1.70 GiB | 3.09 B | CPU | 64 | pp2048 | 259.49 ± 0.44 | 100% |
qwen2 3B Q4_0 | 1.70 GiB | 3.09 B | CPU | 64 | tg128 | 39.12 ± 0.27 | 100% |
qwen2 3B Q4_0 | 1.70 GiB | 3.09 B | CPU | 64 | tg256 | 39.31 ± 0.69 | 100% |
qwen2 3B Q4_0 | 1.70 GiB | 3.09 B | CPU | 64 | tg512 | 40.52 ± 0.03 | 100% |
qwen2 3B Q4_K_M | 1.79 GiB | 3.09 B | CPU | 64 | pp512 | 301.02 ± 1.74 | 147% |
qwen2 3B Q4_K_M | 1.79 GiB | 3.09 B | CPU | 64 | pp1024 | 287.23 ± 0.20 | 101% |
qwen2 3B Q4_K_M | 1.79 GiB | 3.09 B | CPU | 64 | pp2048 | 262.77 ± 1.81 | 101% |
qwen2 3B Q4_K_M | 1.79 GiB | 3.09 B | CPU | 64 | tg128 | 18.80 ± 0.99 | 48% |
qwen2 3B Q4_K_M | 1.79 GiB | 3.09 B | CPU | 64 | tg256 | 24.46 ± 3.04 | 83% |
qwen2 3B Q4_K_M | 1.79 GiB | 3.09 B | CPU | 64 | tg512 | 36.32 ± 3.59 | 90% |
qwen2 3B Q4_0_8_8 | 1.69 GiB | 3.09 B | CPU | 64 | pp512 | 271.71 ± 3.53 | 133% |
qwen2 3B Q4_0_8_8 | 1.69 GiB | 3.09 B | CPU | 64 | pp1024 | 279.86 ± 45.63 | 100% |
qwen2 3B Q4_0_8_8 | 1.69 GiB | 3.09 B | CPU | 64 | pp2048 | 320.77 ± 5.00 | 124% |
qwen2 3B Q4_0_8_8 | 1.69 GiB | 3.09 B | CPU | 64 | tg128 | 43.51 ± 0.05 | 111% |
qwen2 3B Q4_0_8_8 | 1.69 GiB | 3.09 B | CPU | 64 | tg256 | 43.35 ± 0.09 | 110% |
qwen2 3B Q4_0_8_8 | 1.69 GiB | 3.09 B | CPU | 64 | tg512 | 42.60 ± 0.31 | 105% |
Q4_0_8_8在提示處理方面有不錯的提升,在文本生成方面有小幅度提升。
選擇合適的文件
點擊查看詳情
Artefact2提供了一篇很棒的文章,帶有展示各種性能的圖表,鏈接為 此處
首先,你需要確定你能運行多大的模型。為此,你需要了解你有多少內存(RAM)和/或顯存(VRAM)。
如果你希望模型運行得儘可能快,你需要將整個模型放入GPU的顯存中。選擇文件大小比GPU總顯存小1 - 2GB的量化文件。
如果你追求絕對的最高質量,將系統內存和GPU顯存相加,然後選擇文件大小比這個總和小1 - 2GB的量化文件。
接下來,你需要決定是使用“I量化”還是“K量化”。
如果你不想考慮太多,選擇K量化文件,格式為 'QX_K_X',如Q5_K_M。
如果你想深入瞭解,可以查看這個非常有用的特性圖表:
但基本上,如果你目標是低於Q4的量化,並且你使用的是cuBLAS(Nvidia)或rocBLAS(AMD),你應該考慮I量化文件,格式為IQX_X,如IQ3_M。這些是較新的量化方式,在相同大小下提供更好的性能。
這些I量化文件也可以在CPU上使用,但比對應的K量化文件慢,所以你需要在速度和性能之間做出權衡。
📦 安裝指南
使用huggingface-cli下載
點擊查看下載說明
首先,確保你已經安裝了huggingface-cli:
pip install -U "huggingface_hub[cli]"
然後,你可以指定要下載的特定文件:
huggingface-cli download bartowski/ServiceNow-AI_Apriel-Nemotron-15b-Thinker-GGUF --include "ServiceNow-AI_Apriel-Nemotron-15b-Thinker-Q4_K_M.gguf" --local-dir ./
如果模型大於50GB,它會被分割成多個文件。要將它們全部下載到本地文件夾,請運行:
huggingface-cli download bartowski/ServiceNow-AI_Apriel-Nemotron-15b-Thinker-GGUF --include "ServiceNow-AI_Apriel-Nemotron-15b-Thinker-Q8_0/*" --local-dir ./
你可以指定一個新的本地目錄(ServiceNow-AI_Apriel-Nemotron-15b-Thinker-Q8_0),也可以將它們全部下載到當前目錄(./)
📚 詳細文檔
致謝
感謝kalomaze和Dampf協助創建imatrix校準數據集。 感謝ZeroWw在嵌入/輸出實驗方面提供的靈感。 感謝LM Studio對我工作的贊助。
如果你想支持我的工作,請訪問我的ko-fi頁面:https://ko-fi.com/bartowski
📄 許可證
本項目採用MIT許可證。
屬性 | 詳情 |
---|---|
量化者 | bartowski |
任務類型 | 文本生成 |
許可證 | MIT |
基礎模型關係 | 量化 |
基礎模型 | ServiceNow-AI/Apriel-Nemotron-15b-Thinker |



