🚀 LongWriter-Zero-32B 量化模型
LongWriter-Zero-32B 量化模型基於 THU-KEG/LongWriter-Zero-32B 基礎模型,支持中英雙語,適用於強化學習、寫作等長上下文場景。本項目提供了多種量化版本的模型文件,方便不同需求的用戶使用。
🚀 快速開始
若你不確定如何使用 GGUF 文件,可參考 TheBloke 的 README 獲取更多詳情,其中包括如何拼接多部分文件。
✨ 主要特性
- 多語言支持:支持英文和中文兩種語言。
- 多量化版本:提供多種不同大小和質量的量化版本供選擇。
- 長上下文處理:適用於長上下文的強化學習和寫作任務。
📦 安裝指南
文檔未提供具體安裝步驟,可參考上述快速開始部分的使用說明。
📚 詳細文檔
模型信息
屬性 |
詳情 |
基礎模型 |
THU-KEG/LongWriter-Zero-32B |
訓練數據集 |
THU-KEG/LongWriter-Zero-RLData |
支持語言 |
英文、中文 |
庫名稱 |
transformers |
許可證 |
apache-2.0 |
量化者 |
mradermacher |
標籤 |
強化學習、寫作、長上下文 |
量化模型說明
加權/imatrix 量化模型基於 https://huggingface.co/THU-KEG/LongWriter-Zero-32B。靜態量化模型可在 https://huggingface.co/mradermacher/LongWriter-Zero-32B-GGUF 獲取。
提供的量化模型
(按大小排序,不一定代表質量。IQ 量化通常優於類似大小的非 IQ 量化)
鏈接 |
類型 |
大小/GB |
說明 |
GGUF |
i1-IQ1_S |
7.4 |
適合急需使用的情況 |
GGUF |
i1-IQ1_M |
8.0 |
大多用於急需情況 |
GGUF |
i1-IQ2_XXS |
9.1 |
|
GGUF |
i1-IQ2_XS |
10.1 |
|
GGUF |
i1-IQ2_S |
10.5 |
|
GGUF |
i1-IQ2_M |
11.4 |
|
GGUF |
i1-Q2_K_S |
11.6 |
質量非常低 |
GGUF |
i1-Q2_K |
12.4 |
IQ3_XXS 可能更好 |
GGUF |
i1-IQ3_XXS |
12.9 |
質量較低 |
GGUF |
i1-IQ3_XS |
13.8 |
|
GGUF |
i1-Q3_K_S |
14.5 |
IQ3_XS 可能更好 |
GGUF |
i1-IQ3_S |
14.5 |
優於 Q3_K* |
GGUF |
i1-IQ3_M |
14.9 |
|
GGUF |
i1-Q3_K_M |
16.0 |
IQ3_S 可能更好 |
GGUF |
i1-Q3_K_L |
17.3 |
IQ3_M 可能更好 |
GGUF |
i1-IQ4_XS |
17.8 |
|
GGUF |
i1-Q4_0 |
18.8 |
速度快,質量低 |
GGUF |
i1-Q4_K_S |
18.9 |
大小/速度/質量最優 |
GGUF |
i1-Q4_K_M |
20.0 |
速度快,推薦使用 |
GGUF |
i1-Q4_1 |
20.7 |
|
GGUF |
i1-Q5_K_S |
22.7 |
|
GGUF |
i1-Q5_K_M |
23.4 |
|
GGUF |
i1-Q6_K |
27.0 |
實際上類似於靜態 Q6_K |
ikawrakow 提供了一個方便的圖表,用於比較一些低質量量化類型(數值越低越好):

此外,Artefact2 對此也有相關見解:https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
常見問題與模型請求
若你有相關問題或希望對其他模型進行量化,可查看 https://huggingface.co/mradermacher/model_requests 獲取答案。
📄 許可證
本項目採用 apache-2.0 許可證。
🙏 致謝
感謝我的公司 nethype GmbH 允許我使用其服務器,並對我的工作站進行升級,使我能夠在業餘時間完成這項工作。此外,感謝 @nicoboss 讓我使用他的私人超級計算機,使我能夠提供更多、質量更高的 imatrix 量化模型。