🚀 Medra:您的緊湊型醫學推理夥伴
Medra是一款專門打造的輕量級醫學語言模型,旨在輔助臨床推理、醫學教育以及對話建模。它基於Gemma 3構建,是創建可部署、可解釋且符合倫理的醫學人工智能支持系統這一長期項目的第一步。該模型體積小巧,可在消費級硬件上運行;功能強大,能處理細緻的醫學提示;且堅守原則,絕不妄圖取代人類的判斷。
屬性 |
詳情 |
模型類型 |
基於Gemma 3的輕量級醫學語言模型 |
訓練數據 |
qiaojin/PubMedQA、Mreeb/Dermatology - Question - Answer - Dataset - For - Fine - Tuning、lavita/MedQuAD |
模型大小 |
4b |
版本 |
Medra v1(Gemma版) |
格式 |
GGUF(Q4、Q8、BF16) |
許可證 |
Apache 2.0 |
作者 |
Dr. Alexandru Lupoi |

🚀 快速開始
Medra是一款專門為醫學領域打造的輕量級語言模型,基於Gemma 3構建。它旨在輔助臨床推理、醫學教育和對話建模,是創建可部署、可解釋且符合倫理的醫學人工智能支持系統的第一步。該模型體積小巧,可在消費級硬件上運行,能處理細緻的醫學提示,且不會妄圖取代人類的判斷。
✨ 主要特性
- 輕量級臨床推理核心:Medra經過微調,可支持結構化的醫學查詢、診斷步驟、SOAP格式以及臨床提問策略。
- 本地和移動友好:以GGUF(Q4、Q8、BF16)格式提供,Medra可通過Ollama、LM Studio、KoboldCpp和其他本地推理引擎在本地設備上運行,無需API。
- 數據與對齊:在包括PubMed衍生文獻、推理數據集(如R1蒸餾)、臨床筆記以及模仿現實世界醫生互動的提示結構等醫學內容上進行訓練。
- 高可解釋性:設計注重透明度和反思性,而非黑盒決策。當像對待合作伙伴一樣向其提問時,Medra能發揮最佳效果。
- 倫理集成設計:明確旨在與人類協作,在醫療環境中保持謹慎和實用性。
📚 詳細文檔
目的與理念
Medra的開發旨在填補當前人工智能領域的一個關鍵空白。雖然許多通用大語言模型在開放領域對話方面表現出色,但很少有模型針對結構化的醫學相關推理進行優化。更少的模型能夠在本地、離線和即時運行,特別是在無法訪問大型模型或這樣做不符合倫理的環境中。
Medra旨在提供:
- 用於病例模擬和回顧的可解釋輸出
- 支持鑑別診斷探索
- 為醫學生提供反思夥伴
- 在實際臨床環境中提供推理改進框架
本項目基於這樣一種信念:醫療領域的人工智能必須是透明的、具有教育意義的,並且是輔助性的,而不是自主的、掠奪性的或誤導性的。
預期用途
- 醫學教育和考試式推理
- 基於病例的學習模擬
- 人工智能健康助手原型設計
- 治療或診斷背景下的對話建模
- 作為思考夥伴,而非替代人類思考
侷限性
- Medra不是持牌醫療專業人員,在沒有人類監督的情況下,它不用於實際診斷、治療規劃或患者互動。
- 在極端情況下,模型可能會產生幻覺、過度簡化或提供過時的醫學知識。
- Medra目前沒有長期記憶、無法訪問現實世界的臨床數據,也沒有指導醫療護理的權限。
- 它是一個原型,是一個基礎,而不是專業知識的最終替代品。
Medra家族
Medra是不斷發展的醫學推理模型家族的一部分:
- Medra:基於Gemma的緊湊型模型,用於輕量級本地推理
- MedraQ:基於Qwen 3的多語言自適應版本
- MedraOmni:未來基於Qwen 2.5 Omni構建的旗艦模型,支持全多模態
該系列中的每個模型都是有針對性地構建的,在倫理上有明確範圍,專注於負責任地增強醫療知識,而不是取代它。
結束語
Medra的存在是因為醫學需要能夠體現關懷,而不僅僅是計算的工具。它雖小,但有明確的目標;雖具實驗性,但態度嚴肅。它的構建只有一個目的:
讓智能醫療更易獲取、更透明,並更好地服務於人類。
上傳的微調模型
- 開發者:drwlf
- 許可證:apache - 2.0
- 微調基礎模型:unsloth/gemma - 3 - 4b - it - unsloth - bnb - 4bit
這個Gemma3模型使用Unsloth和Huggingface的TRL庫進行訓練,速度提高了2倍。

🔧 技術細節
- 基礎模型:Gemma 3
- 微調階段:指令微調(STF);計劃在後續版本中進行基於人類反饋的強化學習(RLHF)
- 數據領域:醫學問答、鑑別診斷格式、臨床對話數據集、PubMed衍生材料
- 支持的推理引擎:Ollama、LM Studio、KoboldCpp、GGML兼容平臺
- 量化格式:Q4、Q8、BF16
📄 許可證
本項目採用Apache 2.0許可證。