🚀 cupidon - mini - ro量化模型
本项目提供了cupidon - mini - ro
模型的静态量化版本,可用于句子嵌入、特征提取和句子相似度计算等任务。
🚀 快速开始
如果你不确定如何使用GGUF文件,请参考TheBloke的README以获取更多详细信息,包括如何拼接多部分文件。
📚 详细文档
模型信息
属性 |
详情 |
基础模型 |
BlackKakapo/cupidon - mini - ro |
数据集 |
BlackKakapo/RoSTSC |
语言 |
罗马尼亚语(ro) |
库名称 |
transformers |
许可证 |
apache - 2.0 |
量化者 |
mradermacher |
标签 |
sentence - transformers、feature - extraction、sentence - similarity、transformers |
关于量化版本
此为https://huggingface.co/BlackKakapo/cupidon - mini - ro的静态量化版本。加权/矩阵量化文件可在https://huggingface.co/mradermacher/cupidon - mini - ro - i1 - GGUF获取。
提供的量化文件
(按大小排序,不一定按质量排序。IQ量化通常比类似大小的非IQ量化更可取)
链接 |
类型 |
大小/GB |
备注 |
[GGUF](https://huggingface.co/mradermacher/cupidon - mini - ro - GGUF/resolve/main/cupidon - mini - ro.Q2_K.gguf) |
Q2_K |
0.1 |
|
[GGUF](https://huggingface.co/mradermacher/cupidon - mini - ro - GGUF/resolve/main/cupidon - mini - ro.Q3_K_S.gguf) |
Q3_K_S |
0.1 |
|
[GGUF](https://huggingface.co/mradermacher/cupidon - mini - ro - GGUF/resolve/main/cupidon - mini - ro.IQ4_XS.gguf) |
IQ4_XS |
0.1 |
|
[GGUF](https://huggingface.co/mradermacher/cupidon - mini - ro - GGUF/resolve/main/cupidon - mini - ro.Q3_K_M.gguf) |
Q3_K_M |
0.1 |
质量较低 |
[GGUF](https://huggingface.co/mradermacher/cupidon - mini - ro - GGUF/resolve/main/cupidon - mini - ro.Q3_K_L.gguf) |
Q3_K_L |
0.1 |
|
[GGUF](https://huggingface.co/mradermacher/cupidon - mini - ro - GGUF/resolve/main/cupidon - mini - ro.Q4_K_S.gguf) |
Q4_K_S |
0.1 |
快速,推荐 |
[GGUF](https://huggingface.co/mradermacher/cupidon - mini - ro - GGUF/resolve/main/cupidon - mini - ro.Q4_K_M.gguf) |
Q4_K_M |
0.1 |
快速,推荐 |
[GGUF](https://huggingface.co/mradermacher/cupidon - mini - ro - GGUF/resolve/main/cupidon - mini - ro.Q5_K_S.gguf) |
Q5_K_S |
0.1 |
|
[GGUF](https://huggingface.co/mradermacher/cupidon - mini - ro - GGUF/resolve/main/cupidon - mini - ro.Q5_K_M.gguf) |
Q5_K_M |
0.1 |
|
[GGUF](https://huggingface.co/mradermacher/cupidon - mini - ro - GGUF/resolve/main/cupidon - mini - ro.Q6_K.gguf) |
Q6_K |
0.1 |
质量非常好 |
[GGUF](https://huggingface.co/mradermacher/cupidon - mini - ro - GGUF/resolve/main/cupidon - mini - ro.Q8_0.gguf) |
Q8_0 |
0.1 |
快速,质量最佳 |
[GGUF](https://huggingface.co/mradermacher/cupidon - mini - ro - GGUF/resolve/main/cupidon - mini - ro.f16.gguf) |
f16 |
0.1 |
16 bpw,过度配置 |
以下是ikawrakow提供的比较一些低质量量化类型的便捷图表(值越低越好):

此外,Artefact2对此事的看法可参考:https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
常见问题解答/模型请求
有关你可能遇到的问题的答案,以及如果你希望对其他模型进行量化,请访问https://huggingface.co/mradermacher/model_requests。
📄 许可证
本项目采用apache - 2.0许可证。
🙏 致谢
感谢我的公司nethype GmbH,允许我使用其服务器,并对我的工作站进行升级,使我能够在业余时间完成这项工作。