🚀 LongWriter-Zero-32B 量化模型
LongWriter-Zero-32B 量化模型基于 THU-KEG/LongWriter-Zero-32B 基础模型,支持中英双语,适用于强化学习、写作等长上下文场景。本项目提供了多种量化版本的模型文件,方便不同需求的用户使用。
🚀 快速开始
若你不确定如何使用 GGUF 文件,可参考 TheBloke 的 README 获取更多详情,其中包括如何拼接多部分文件。
✨ 主要特性
- 多语言支持:支持英文和中文两种语言。
- 多量化版本:提供多种不同大小和质量的量化版本供选择。
- 长上下文处理:适用于长上下文的强化学习和写作任务。
📦 安装指南
文档未提供具体安装步骤,可参考上述快速开始部分的使用说明。
📚 详细文档
模型信息
属性 |
详情 |
基础模型 |
THU-KEG/LongWriter-Zero-32B |
训练数据集 |
THU-KEG/LongWriter-Zero-RLData |
支持语言 |
英文、中文 |
库名称 |
transformers |
许可证 |
apache-2.0 |
量化者 |
mradermacher |
标签 |
强化学习、写作、长上下文 |
量化模型说明
加权/imatrix 量化模型基于 https://huggingface.co/THU-KEG/LongWriter-Zero-32B。静态量化模型可在 https://huggingface.co/mradermacher/LongWriter-Zero-32B-GGUF 获取。
提供的量化模型
(按大小排序,不一定代表质量。IQ 量化通常优于类似大小的非 IQ 量化)
链接 |
类型 |
大小/GB |
说明 |
GGUF |
i1-IQ1_S |
7.4 |
适合急需使用的情况 |
GGUF |
i1-IQ1_M |
8.0 |
大多用于急需情况 |
GGUF |
i1-IQ2_XXS |
9.1 |
|
GGUF |
i1-IQ2_XS |
10.1 |
|
GGUF |
i1-IQ2_S |
10.5 |
|
GGUF |
i1-IQ2_M |
11.4 |
|
GGUF |
i1-Q2_K_S |
11.6 |
质量非常低 |
GGUF |
i1-Q2_K |
12.4 |
IQ3_XXS 可能更好 |
GGUF |
i1-IQ3_XXS |
12.9 |
质量较低 |
GGUF |
i1-IQ3_XS |
13.8 |
|
GGUF |
i1-Q3_K_S |
14.5 |
IQ3_XS 可能更好 |
GGUF |
i1-IQ3_S |
14.5 |
优于 Q3_K* |
GGUF |
i1-IQ3_M |
14.9 |
|
GGUF |
i1-Q3_K_M |
16.0 |
IQ3_S 可能更好 |
GGUF |
i1-Q3_K_L |
17.3 |
IQ3_M 可能更好 |
GGUF |
i1-IQ4_XS |
17.8 |
|
GGUF |
i1-Q4_0 |
18.8 |
速度快,质量低 |
GGUF |
i1-Q4_K_S |
18.9 |
大小/速度/质量最优 |
GGUF |
i1-Q4_K_M |
20.0 |
速度快,推荐使用 |
GGUF |
i1-Q4_1 |
20.7 |
|
GGUF |
i1-Q5_K_S |
22.7 |
|
GGUF |
i1-Q5_K_M |
23.4 |
|
GGUF |
i1-Q6_K |
27.0 |
实际上类似于静态 Q6_K |
ikawrakow 提供了一个方便的图表,用于比较一些低质量量化类型(数值越低越好):

此外,Artefact2 对此也有相关见解:https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
常见问题与模型请求
若你有相关问题或希望对其他模型进行量化,可查看 https://huggingface.co/mradermacher/model_requests 获取答案。
📄 许可证
本项目采用 apache-2.0 许可证。
🙏 致谢
感谢我的公司 nethype GmbH 允许我使用其服务器,并对我的工作站进行升级,使我能够在业余时间完成这项工作。此外,感谢 @nicoboss 让我使用他的私人超级计算机,使我能够提供更多、质量更高的 imatrix 量化模型。