🚀 BGE-large-zh-v1.5量化模型
本项目提供了https://huggingface.co/BAAI/bge-large-zh-v1.5 的加权/矩阵量化版本,方便用户使用和下载。
🚀 快速开始
如果你不确定如何使用GGUF文件,可以参考TheBloke的README,其中包含了如何使用以及如何拼接多部分文件的详细信息。
📚 详细文档
关于模型
本项目是对https://huggingface.co/BAAI/bge-large-zh-v1.5 进行加权/矩阵量化的版本。静态量化文件可在https://huggingface.co/mradermacher/bge-large-zh-v1.5-GGUF 获取。
为了方便查看和下载,请访问我们的该模型页面。
提供的量化版本
(按大小排序,不一定代表质量。IQ量化通常比类似大小的非IQ量化更优)
链接 |
类型 |
大小/GB |
备注 |
GGUF |
i1-IQ1_S |
0.2 |
适用于急需的情况 |
GGUF |
i1-IQ1_M |
0.2 |
大多用于急需情况 |
GGUF |
i1-IQ2_XXS |
0.2 |
|
GGUF |
i1-IQ2_XS |
0.2 |
|
GGUF |
i1-IQ2_S |
0.2 |
|
GGUF |
i1-IQ2_M |
0.2 |
|
GGUF |
i1-Q2_K_S |
0.2 |
质量非常低 |
GGUF |
i1-IQ3_XXS |
0.2 |
质量较低 |
GGUF |
i1-Q2_K |
0.2 |
IQ3_XXS可能更好 |
GGUF |
i1-IQ3_XS |
0.2 |
|
GGUF |
i1-IQ3_S |
0.3 |
优于Q3_K* |
GGUF |
i1-Q3_K_S |
0.3 |
IQ3_XS可能更好 |
GGUF |
i1-IQ3_M |
0.3 |
|
GGUF |
i1-Q3_K_M |
0.3 |
IQ3_S可能更好 |
GGUF |
i1-IQ4_XS |
0.3 |
|
GGUF |
i1-Q3_K_L |
0.3 |
IQ3_M可能更好 |
GGUF |
i1-IQ4_NL |
0.3 |
优先选择IQ4_XS |
GGUF |
i1-Q4_0 |
0.3 |
速度快,质量低 |
GGUF |
i1-Q4_K_S |
0.3 |
大小/速度/质量最优 |
GGUF |
i1-Q4_K_M |
0.3 |
速度快,推荐使用 |
GGUF |
i1-Q4_1 |
0.3 |
|
GGUF |
i1-Q5_K_S |
0.3 |
|
GGUF |
i1-Q5_K_M |
0.3 |
|
GGUF |
i1-Q6_K |
0.4 |
实际上类似于静态Q6_K |
以下是ikawrakow提供的一张比较低质量量化类型的实用图表(数值越低越好):

此外,你还可以查看Artefact2对此事的看法:https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
常见问题与模型请求
如果你有相关问题或希望对其他模型进行量化,请查看https://huggingface.co/mradermacher/model_requests 。
📄 许可证
本项目采用MIT许可证。
🙏 致谢
感谢我的公司nethype GmbH,允许我使用其服务器,并对我的工作站进行升级,使我能够在业余时间完成这项工作。此外,感谢@nicoboss让我使用他的私人超级计算机,使我能够提供更多、质量更高的矩阵量化版本。