🚀 DrMedra4B量化模型项目
本项目提供了基于drwlf/DrMedra4B
模型的量化版本,适用于医疗AI领域,涵盖临床推理、摘要生成、诊断等多个场景。通过不同类型的量化文件,可在不同资源条件下使用该模型。
🚀 快速开始
若你不确定如何使用GGUF文件,请参考TheBloke的README获取更多详情,包括如何拼接多部分文件。
✨ 主要特性
- 多语言支持:支持英语和罗马尼亚语。
- 医疗领域适用:适用于医疗AI、临床推理、摘要生成、诊断等场景。
- 多种量化类型:提供多种不同大小和质量的量化文件供选择。
📦 模型信息
属性 |
详情 |
基础模型 |
drwlf/DrMedra4B |
数据集 |
nicoboss/medra-medical |
语言 |
英语、罗马尼亚语 |
库名称 |
transformers |
许可证 |
apache - 2.0 |
量化者 |
mradermacher |
标签 |
医疗AI、临床推理、摘要生成、诊断、medgemma、微调 |
📚 详细文档
关于模型
加权/imatrix量化的https://huggingface.co/drwlf/DrMedra4B 。静态量化文件可在https://huggingface.co/mradermacher/DrMedra4B - GGUF 获取。
提供的量化文件
(按大小排序,不一定按质量排序。IQ量化通常比类似大小的非IQ量化更优)
链接 |
类型 |
大小/GB |
备注 |
GGUF |
i1 - IQ1_S |
1.2 |
适用于资源极度紧张情况 |
GGUF |
i1 - IQ1_M |
1.3 |
多数为资源紧张情况 |
GGUF |
i1 - IQ2_XXS |
1.4 |
|
GGUF |
i1 - IQ2_XS |
1.5 |
|
GGUF |
i1 - IQ2_S |
1.5 |
|
GGUF |
i1 - IQ2_M |
1.6 |
|
GGUF |
i1 - Q2_K_S |
1.7 |
质量较低 |
GGUF |
i1 - IQ3_XXS |
1.8 |
质量较低 |
GGUF |
i1 - Q2_K |
1.8 |
IQ3_XXS可能更好 |
GGUF |
i1 - IQ3_XS |
2.0 |
|
GGUF |
i1 - IQ3_S |
2.0 |
优于Q3_K* |
GGUF |
i1 - Q3_K_S |
2.0 |
IQ3_XS可能更好 |
GGUF |
i1 - IQ3_M |
2.1 |
|
GGUF |
i1 - Q3_K_M |
2.2 |
IQ3_S可能更好 |
GGUF |
i1 - Q3_K_L |
2.3 |
IQ3_M可能更好 |
GGUF |
i1 - IQ4_XS |
2.4 |
|
GGUF |
i1 - IQ4_NL |
2.5 |
优先选择IQ4_XS |
GGUF |
i1 - Q4_0 |
2.5 |
速度快,质量低 |
GGUF |
i1 - Q4_K_S |
2.5 |
大小/速度/质量最优 |
GGUF |
i1 - Q4_K_M |
2.6 |
速度快,推荐使用 |
GGUF |
i1 - Q4_1 |
2.7 |
|
GGUF |
i1 - Q5_K_S |
2.9 |
|
GGUF |
i1 - Q5_K_M |
2.9 |
|
GGUF |
i1 - Q6_K |
3.3 |
实际效果类似静态Q6_K |
以下是ikawrakow提供的比较一些低质量量化类型的便捷图表(值越低越好):

此外,Artefact2对此事的看法可参考:https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
常见问题解答/模型请求
若你有相关问题或希望对其他模型进行量化,请查看https://huggingface.co/mradermacher/model_requests 。
📄 许可证
本项目使用apache - 2.0许可证。
🙏 致谢
感谢我的公司nethype GmbH,允许我使用其服务器并对我的工作站进行升级,使我能够在业余时间完成这项工作。此外,感谢@nicoboss让我使用他的私人超级计算机,使我能够提供更多、质量更高的imatrix量化文件。