🚀 Medra:您的轻量级医疗推理伙伴
Medra是一款专门设计的轻量级医疗语言模型,旨在辅助临床推理、医学教育和对话建模。它基于Gemma 3构建,是创建可部署、可解释且符合伦理的医疗人工智能支持系统这一长期项目的第一步。该模型体积小巧,可在消费级硬件上运行;功能强大,能处理复杂的医疗提示;且始终坚守原则,不会妄图取代人类的判断。
属性 |
详情 |
模型类型 |
基于Gemma 3的轻量级医疗语言模型 |
模型大小 |
4b |
版本 |
Medra v1(Gemma版) |
格式 |
GGUF(Q4、Q8、BF16) |
许可证 |
Apache 2.0 |
作者 |
Dr. Alexandru Lupoi |
训练数据 |
qiaojin/PubMedQA、Mreeb/Dermatology-Question-Answer-Dataset-For-Fine-Tuning、lavita/MedQuAD |
标签 |
文本生成、医疗人工智能、问答、摘要生成、皮肤病学、Gemma 3、QLoRA、Unsloth、微调 |
管道标签 |
文本生成 |

🚀 快速开始
Medra是一款专门构建的轻量级医疗语言模型,用于辅助临床推理、医学教育和对话建模。它基于Gemma 3构建,是创建可部署、可解释且符合伦理的医疗人工智能支持系统这一长期项目的第一步。
它足够小巧,可以在消费级硬件上运行;功能强大,能够支持细致入微的医疗提示;并且有原则,永远不会假装取代人类的判断。
Medra不是聊天机器人,而是一种认知工具,是学生、临床医生和研究人员探索人工智能如何在不简化医疗复杂性的情况下提供帮助的推理伙伴。
✨ 主要特性
填补关键空白
当前许多通用大语言模型在开放领域对话方面表现出色,但针对结构化、与医学相关的推理进行优化的却很少。能够本地、离线且实时运行的模型更是少之又少,特别是在无法使用大型模型或使用大型模型不符合伦理的环境中。
提供多方面支持
- 可解释的输出:为病例模拟和回顾提供可解释的输出。
- 支持鉴别诊断:支持鉴别诊断探索。
- 辅助医学生:成为医学生的反思伙伴。
- 优化临床推理:在实际临床环境中提供推理优化框架。
具备多种优势
- 轻量级临床推理核心:经过微调,支持结构化医疗查询、诊断步骤、SOAP格式和临床提问策略。
- 本地和移动友好:以GGUF(Q4、Q8、BF16)格式提供,可通过Ollama、LM Studio、KoboldCpp和其他本地推理引擎在本地设备上运行,无需API。
- 数据与对齐:在包括PubMed文献、推理数据集(如R1蒸馏)、临床笔记和模仿真实医生互动的提示结构等医疗内容上进行训练。
- 高可解释性:设计注重透明度和反思性,而非黑盒决策。在像对待合作伙伴而非先知一样进行提示时,Medra效果最佳。
- 伦理集成设计:明确旨在与人工参与的医疗环境保持一致,谨慎且实用。
📚 详细文档
预期用途
- 医学教育和考试式推理
- 基于案例的学习模拟
- 人工智能健康助手原型设计
- 治疗或诊断环境中的对话建模
- 作为一种思考伙伴,而非替代人类思考
局限性
- Medra不是持牌医疗专业人员,在没有人工监督的情况下,不用于实际诊断、治疗规划或患者互动。
- 该模型在极端情况下可能会产生幻觉、过度简化或提供过时的医学知识。
- Medra目前不具备长期记忆、访问真实临床数据的能力,也没有指导医疗护理的权限。
- 它是一个原型,是一个基础,而非专业知识的最终替代品。
技术细节
- 基础模型:Gemma 3
- 微调阶段:指令微调(STF);计划在即将发布的版本中进行基于人类反馈的强化学习(RLHF)
- 数据领域:医疗问答、鉴别诊断格式、临床对话数据集、PubMed衍生材料
- 支持的推理引擎:Ollama、LM Studio、KoboldCpp、兼容GGML的平台
- 量化格式:Q4、Q8、BF16
Medra家族
Medra是不断发展的医疗推理模型家族的一部分:
- Medra:基于Gemma的紧凑型模型,用于轻量级本地推理
- MedraQ:基于Qwen 3的多语言自适应版本
- MedraOmni:未来基于Qwen 2.5 Omni构建的旗舰模型,支持全多模态
该系列中的每个模型都是有针对性地构建的,在伦理范围内进行设计,并专注于负责任地增强医疗知识,而非取代它。
最后说明
Medra的诞生是因为医学需要能够体现关怀,而不仅仅是计算的工具。它虽小,但有明确的目标;虽具实验性,但态度严肃。它的构建只有一个目的:
让智能医疗更易获取、更透明,并更好地服务于人类。
上传的微调模型
- 开发者:drwlf
- 许可证:Apache 2.0
- 微调基础模型:unsloth/gemma-3-4b-it-unsloth-bnb-4bit
这个Gemma 3模型使用Unsloth和Huggingface的TRL库进行训练,速度提高了2倍。
[
](https://github.com/unslothai/