模型概述
模型特點
模型能力
使用案例
🚀 Med42 - 臨床大語言模型
Med42是由M42開發的一個開放訪問的臨床大語言模型(LLM),旨在擴大醫學知識的獲取途徑。該生成式AI系統基於LLaMA - 2構建,擁有700億參數,能夠為醫學問題提供高質量的答案。
🚀 快速開始
模型獲取
本模型的使用受M42 Health許可證的約束。若要下載模型權重(和分詞器),請閱讀Med42許可證,並通過此處申請訪問以接受我們的許可證。
使用示例
為了獲得模型的預期特性和性能,需要遵循特定的格式,包括<|system|>
、<|prompter|>
和<|assistant|>
標籤。
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name_or_path = "m42-health/med42-70b"
model = AutoModelForCausalLM.from_pretrained(model_name_or_path,
device_map="auto")
tokenizer = AutoTokenizer.from_pretrained(model_name_or_path)
prompt = "What are the symptoms of diabetes ?"
prompt_template=f'''
<|system|>: You are a helpful medical assistant created by M42 Health in the UAE.
<|prompter|>:{prompt}
<|assistant|>:
'''
input_ids = tokenizer(prompt_template, return_tensors='pt').input_ids.cuda()
output = model.generate(inputs=input_ids, temperature=0.7, do_sample=True,eos_token_id=tokenizer.eos_token_id, pad_token_id=tokenizer.pad_token_id, max_new_tokens=512)
print(tokenizer.decode(output[0]))
✨ 主要特性
- 基於LLaMA - 2構建,擁有700億參數,能提供高質量醫學問題答案。
- 在多個醫學基準測試中取得有競爭力的成績,如MedQA、MedMCQA等。
- 可用於醫療問答、患者記錄總結、輔助醫療診斷和一般健康問答等場景。
📦 安裝指南
文檔未提及具體安裝步驟,故跳過此章節。
💻 使用示例
基礎用法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name_or_path = "m42-health/med42-70b"
model = AutoModelForCausalLM.from_pretrained(model_name_or_path,
device_map="auto")
tokenizer = AutoTokenizer.from_pretrained(model_name_or_path)
prompt = "What are the symptoms of diabetes ?"
prompt_template=f'''
<|system|>: You are a helpful medical assistant created by M42 Health in the UAE.
<|prompter|>:{prompt}
<|assistant|>:
'''
input_ids = tokenizer(prompt_template, return_tensors='pt').input_ids.cuda()
output = model.generate(inputs=input_ids, temperature=0.7, do_sample=True,eos_token_id=tokenizer.eos_token_id, pad_token_id=tokenizer.pad_token_id, max_new_tokens=512)
print(tokenizer.decode(output[0]))
高級用法
文檔未提及高級用法代碼示例,故跳過此部分。
📚 詳細文檔
模型詳情
從基礎的LLaMa - 2模型開始,Med42在一個約25億標記的數據集上進行了指令調優,該數據集由不同的開放訪問源編譯而成,包括醫學抽認卡、考試問題和開放領域對話。
屬性 | 詳情 |
---|---|
模型開發者 | M42 Health AI團隊 |
微調基礎模型 | Llama - 2 - 70B |
上下文長度 | 4k標記 |
輸入 | 僅文本數據 |
輸出 | 模型僅生成文本 |
狀態 | 這是一個在離線數據集上訓練的靜態模型。隨著我們提升模型性能,未來將發佈調優模型的新版本。 |
許可證 | 自定義許可證可在此處獲取 |
研究論文 | Med42 - Evaluating Fine - Tuning Strategies for Medical LLMs: Full - Parameter vs. Parameter - Efficient Approaches |
預期用途
Med42作為一個AI助手,可用於進一步測試和評估,以增強臨床決策能力,並擴大醫療保健領域對大語言模型的使用。潛在用例包括:
- 醫療問題解答
- 患者記錄總結
- 輔助醫療診斷
- 一般健康問答
硬件和軟件
訓練過程在Condor Galaxy 1(CG - 1)超級計算機平臺上進行。
評估結果
Med42在多個醫學基準測試中取得了有競爭力的性能,包括MedQA、MedMCQA、PubMedQA、HeadQA和衡量大規模多任務語言理解(MMLU)臨床主題。到目前為止,所有報告的評估都使用[EleutherAI的評估工具庫](https://github.com/EleutherAI/lm - evaluation - harness),並報告零樣本準確率(除非另有說明)。我們將其性能與其他模型(ClinicalCamel - 70B、GPT - 3.5、GPT - 4.0、Med - PaLM 2)進行了比較。
數據集 | Med42 | ClinicalCamel - 70B | GPT - 3.5 | GPT - 4.0 | Med - PaLM - 2 (5 - shot)* |
---|---|---|---|---|---|
MMLU臨床知識 | 74.3 | 69.8 | 69.8 | 86.0 | 88.3 |
MMLU大學生物學 | 84.0 | 79.2 | 72.2 | 95.1 | 94.4 |
MMLU大學醫學 | 68.8 | 67.0 | 61.3 | 76.9 | 80.9 |
MMLU醫學遺傳學 | 86.0 | 69.0 | 70.0 | 91.0 | 90.0 |
MMLU專業醫學 | 79.8 | 71.3 | 70.2 | 93.0 | 95.2 |
MMLU解剖學 | 67.4 | 62.2 | 56.3 | 80.0 | 77.8 |
MedMCQA | 60.9 | 47.0 | 50.1 | 69.5 | 71.3 |
MedQA | 61.5 | 53.4 | 50.8 | 78.9 | 79.7 |
USMLE自我評估 | 71.7 | - | 49.1 | 83.8 | - |
USMLE樣本考試 | 72.0 | 54.3 | 56.9 | 84.3 | - |
*我們注意到Med - PaLM 2未報告零樣本性能。更多詳細信息可在https://github.com/m42health/med42找到。
關鍵性能指標
- Med42在美國醫學執照考試(USMLE)樣本考試中達到了72%的準確率,超過了公開可用的醫學大語言模型中的先前最優水平。
- 在MedQA數據集上達到61.5%的準確率(相比之下,GPT - 3.5為50.8%)。
- 在MMLU臨床主題上的性能始終高於GPT - 3.5。
🔧 技術細節
文檔未提及足夠的技術實現細節,故跳過此章節。
📄 許可證
Med42使用自定義許可證,可在此處獲取。
⚠️ 注意事項
侷限性與安全使用
- Med42尚未準備好用於實際臨床應用。為確保安全,正在進行廣泛的人工評估。
- 存在生成不正確或有害信息的可能性。
- 有延續訓練數據中偏差的風險。
請負責任地使用此模型!在未進行嚴格安全測試的情況下,請勿將其用於醫療用途。
訪問Med42和報告問題
請通過以下方式之一報告任何軟件“漏洞”或其他問題:
- 報告模型問題:https://github.com/m42health/med42
- 報告模型生成的風險內容、漏洞和/或任何安全問題:https://forms.office.com/r/YMJu3kcKat
- M42的隱私政策可在[https://m42.ae/privacy - policy/](https://m42.ae/privacy - policy/)查看。
- 報告違反可接受使用政策或未經授權使用Med42的情況:med42@m42.ae
引用
我們的論文已發表在AAAI 2024春季研討會 - 臨床基礎模型上,可在arXiv上獲取:https://arxiv.org/abs/2404.14779
@article{christophe2024med42,
title={Med42 -- Evaluating Fine-Tuning Strategies for Medical LLMs: Full-Parameter vs. Parameter-Efficient Approaches},
author={Clément Christophe and Praveen K Kanithi and Prateek Munjal and Tathagata Raha and Nasir Hayat and Ronnie Rajan and Ahmed Al-Mahrooqi and Avani Gupta and Muhammad Umar Salman and Gurpreet Gosal and Bhargav Kanakiya and Charles Chen and Natalia Vassilieva and Boulbaba Ben Amor and Marco AF Pimentel and Shadab Khan},
year={2024},
eprint={2404.14779},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
⚠️ 重要提示
本模型使用受M42 Health許可證約束,使用前請閱讀並接受相關許可證條款。
💡 使用建議
在使用模型時,請遵循特定的格式,包括
<|system|>
、<|prompter|>
和<|assistant|>
標籤,以獲得預期的特性和性能。同時,在未進行嚴格安全測試的情況下,請勿將其用於醫療用途。



