🚀 WR30a-Deep-7B-0711模型量化版本
本项目是对prithivMLmods/WR30a-Deep-7B-0711
模型的量化版本,支持多语言,适用于文本生成推理、图像字幕生成、光学字符识别等多种场景。
🚀 快速开始
若你不确定如何使用GGUF文件,请参考 TheBloke的README 获取更多详情,包括如何拼接多部分文件。
✨ 主要特性
- 多语言支持:支持英语和中文。
- 多任务能力:适用于文本生成推理、图像字幕生成、光学字符识别、智能字符识别等多种任务。
- 多种量化版本:提供多种不同大小和质量的量化版本供选择。
📚 详细文档
模型信息
属性 |
详情 |
基础模型 |
prithivMLmods/WR30a-Deep-7B-0711 |
支持语言 |
英语、中文 |
库名称 |
transformers |
许可证 |
apache-2.0 |
量化者 |
mradermacher |
标签 |
text-generation-inference、image-captioning、optical-character-recognition、intelligent-character-recognition、caption、ocr、visual-understanding、art、icr、image-to-text、vlm |
关于模型
这是 https://huggingface.co/prithivMLmods/WR30a-Deep-7B-0711 的加权/矩阵量化版本。
如需便捷的概述和下载列表,请访问我们的 此模型页面。
静态量化版本可在 https://huggingface.co/mradermacher/WR30a-Deep-7B-0711-GGUF 获取。
这是一个视觉模型 - mmproj文件(如果有)将位于 静态仓库 中。
提供的量化版本
(按大小排序,不一定按质量排序。IQ量化通常优于类似大小的非IQ量化)
链接 |
类型 |
大小/GB |
说明 |
GGUF |
i1-IQ1_S |
2.0 |
适合急需的情况 |
GGUF |
i1-IQ1_M |
2.1 |
大多用于急需情况 |
GGUF |
i1-IQ2_XXS |
2.4 |
|
GGUF |
i1-IQ2_XS |
2.6 |
|
GGUF |
i1-IQ2_S |
2.7 |
|
GGUF |
i1-IQ2_M |
2.9 |
|
GGUF |
i1-Q2_K_S |
2.9 |
质量非常低 |
GGUF |
i1-Q2_K |
3.1 |
IQ3_XXS可能更好 |
GGUF |
i1-IQ3_XXS |
3.2 |
质量较低 |
GGUF |
i1-IQ3_XS |
3.4 |
|
GGUF |
i1-Q3_K_S |
3.6 |
IQ3_XS可能更好 |
GGUF |
i1-IQ3_S |
3.6 |
优于Q3_K* |
GGUF |
i1-IQ3_M |
3.7 |
|
GGUF |
i1-Q3_K_M |
3.9 |
IQ3_S可能更好 |
GGUF |
i1-Q3_K_L |
4.2 |
IQ3_M可能更好 |
GGUF |
i1-IQ4_XS |
4.3 |
|
GGUF |
i1-IQ4_NL |
4.5 |
优先选择IQ4_XS |
GGUF |
i1-Q4_0 |
4.5 |
速度快,质量低 |
GGUF |
i1-Q4_K_S |
4.6 |
大小/速度/质量最优 |
GGUF |
i1-Q4_K_M |
4.8 |
速度快,推荐使用 |
GGUF |
i1-Q4_1 |
5.0 |
|
GGUF |
i1-Q5_K_S |
5.4 |
|
GGUF |
i1-Q5_K_M |
5.5 |
|
GGUF |
i1-Q6_K |
6.4 |
实际上类似于静态Q6_K |
以下是ikawrakow提供的一张比较一些低质量量化类型的便捷图表(数值越低越好):

此外,这里是Artefact2对此事的看法:
https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
常见问题解答/模型请求
请访问 https://huggingface.co/mradermacher/model_requests 获取你可能有的问题的答案,以及如果你希望对其他模型进行量化。
📄 许可证
本模型使用apache-2.0
许可证。
🙏 致谢
感谢我的公司 nethype GmbH 让我使用其服务器,并对我的工作站进行升级,使我能够在业余时间完成这项工作。此外,感谢 @nicoboss 让我使用他的私人超级计算机,使我能够提供比以往更多、质量更高的矩阵量化版本。