🚀 Medra27B 量化模型项目
本项目提供了对 nicoboss/Medra27B
模型的量化版本,涵盖多种量化类型,适用于文本生成、医疗人工智能等多个领域,为用户在不同场景下使用该模型提供了便利。
🚀 快速开始
如果你不确定如何使用 GGUF 文件,请参考 TheBloke 的 README 以获取更多详细信息,包括如何拼接多部分文件。
✨ 主要特性
- 多语言支持:支持英语和罗马尼亚语。
- 多领域应用:适用于文本生成、医疗人工智能、摘要生成、诊断推理等多个领域。
- 多种量化类型:提供多种不同大小和质量的量化版本供选择。
📦 安装指南
文档未提供具体安装步骤,暂不展示。
💻 使用示例
文档未提供代码示例,暂不展示。
📚 详细文档
关于模型
加权/矩阵量化的 https://huggingface.co/nicoboss/Medra27B 。静态量化文件可在 https://huggingface.co/mradermacher/Medra27B-GGUF 获取。
提供的量化版本
(按大小排序,不一定按质量排序。IQ 量化通常优于类似大小的非 IQ 量化)
链接 |
类型 |
大小(GB) |
备注 |
GGUF |
i1-IQ1_S |
6.4 |
适用于资源极度紧张的情况 |
GGUF |
i1-IQ1_M |
6.9 |
多数情况下适用于资源紧张的情况 |
GGUF |
i1-IQ2_XXS |
7.8 |
|
GGUF |
i1-IQ2_XS |
8.5 |
|
GGUF |
i1-IQ2_S |
8.9 |
|
GGUF |
i1-IQ2_M |
9.6 |
|
GGUF |
i1-Q2_K_S |
9.9 |
质量较低 |
GGUF |
i1-Q2_K |
10.6 |
IQ3_XXS 可能更好 |
GGUF |
i1-IQ3_XXS |
10.8 |
质量较低 |
GGUF |
i1-IQ3_XS |
11.7 |
|
GGUF |
i1-IQ3_S |
12.3 |
优于 Q3_K* |
GGUF |
i1-Q3_K_S |
12.3 |
IQ3_XS 可能更好 |
GGUF |
i1-IQ3_M |
12.6 |
|
GGUF |
i1-Q3_K_M |
13.5 |
IQ3_S 可能更好 |
GGUF |
i1-Q3_K_L |
14.6 |
IQ3_M 可能更好 |
GGUF |
i1-IQ4_XS |
14.9 |
|
GGUF |
i1-Q4_0 |
15.7 |
速度快,质量低 |
GGUF |
i1-Q4_K_S |
15.8 |
大小/速度/质量最优 |
GGUF |
i1-Q4_K_M |
16.6 |
速度快,推荐使用 |
GGUF |
i1-Q4_1 |
17.3 |
|
GGUF |
i1-Q5_K_S |
18.9 |
|
GGUF |
i1-Q5_K_M |
19.4 |
|
GGUF |
i1-Q6_K |
22.3 |
实际上类似于静态 Q6_K |
ikawrakow 提供了一个比较一些低质量量化类型的实用图表(数值越低越好):

此外,Artefact2 对此事的看法可参考:https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
常见问题解答 / 模型请求
你可以访问 https://huggingface.co/mradermacher/model_requests 查看常见问题的解答,或者如果你希望对其他模型进行量化,也可以在此处提出请求。
🔧 技术细节
文档未提供具体技术实现细节,暂不展示。
📄 许可证
本项目采用 apache-2.0
许可证。
致谢
感谢我的公司 nethype GmbH 允许我使用其服务器,并对我的工作站进行升级,使我能够在业余时间完成这项工作。此外,感谢 @nicoboss 让我使用他的私人超级计算机,使我能够提供更多、质量更高的矩阵量化版本。
信息表格
属性 |
详情 |
基础模型 |
nicoboss/Medra27B |
数据集 |
nicoboss/medra-medical |
语言 |
英语、罗马尼亚语 |
库名称 |
transformers |
许可证 |
apache-2.0 |
量化者 |
mradermacher |
标签 |
文本生成、医疗人工智能、摘要生成、诊断推理、gemma - 3、微调 |