🚀 引領中醫智能化新篇章——“五行心智”智能中醫問診大模型
在人工智能技術飛速發展的當下,為傳承和弘揚中醫藥精髓,騰訊煙臺新工科研究院團隊深入調研並與中醫藥學院合作,成功研發出基於 QWEN 的智能中醫問診大模型——“五行心智”。該模型藉助十萬條量級的問診數據進行微調,致力於為用戶提供更精準、個性化的中醫問診服務。
🚀 快速開始
“五行心智”智能中醫問診大模型將中醫五行理論與人工智能技術相融合,通過深度學習、自然語言處理等技術,實現對患者病症的智能分析、診斷以及治療方案推薦。與傳統人工問診方式相比,它具備以下顯著優勢:
- 高效便捷:患者只需在手機、電腦等設備上輸入症狀,系統便能迅速給出診斷結果和治療方案,節省了排隊和等待時間。
- 精準個性化:依託大數據和深度學習技術,該模型能依據患者的年齡、性別、病史等信息,提供更精準、個性化的診斷與建議。
- 全天候服務:可隨時隨地為患者提供問診服務,不受時間和地點限制,滿足不同場景下患者的需求。
- 智能推薦:在給出診斷結果的同時,會根據患者實際情況推薦合適的中醫治療方案,如中藥、針灸、推拿等,助力患者更好康復。
- 持續學習:模型具有持續學習能力,隨著數據積累和技術迭代,其診斷準確率和治療效果將不斷提升。
✨ 主要特性
- 融合五行理論:將中醫五行理論融入人工智能技術,實現對患者病症的智能分析、診斷和治療方案推薦。
- 數據驅動微調:利用十萬條量級的問診數據進行微調,提升問診服務的精準度和個性化程度。
- 多技術支持:藉助深度學習、自然語言處理等技術,實現高效的病症分析和診斷。
📦 安裝指南
大模型包含 1.8B 版本、7B 版本和 14B 版本,本次開源的是 1.8B 版本,且使用 GPTQ 量化為 int4,支持在消費級顯卡上運行。
方便起見,建議按以下步驟克隆 Qwen 的原始存儲庫完成依賴安裝:
git clone https://github.com/QwenLM/Qwen.git
cd Qwen
pip install -r requirements.txt
其次,請確保安裝了 autogptq
:
pip install auto-gptq optimum
若硬件支持,可使用 flash-attention
提升推理效率:
git clone https://github.com/Dao-AILab/flash-attention
pip uninstall -y ninja && pip install ninja
cd flash-attention && pip install .
💻 使用示例
基礎用法
from transformers import AutoModelForCausalLM, AutoTokenizer
from transformers.generation import GenerationConfig
tokenizer = AutoTokenizer.from_pretrained("cookey39/Five_Phases_Mindset", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("cookey39/Five_Phases_Mindset", device_map="auto", trust_remote_code=True).eval()
model.generation_config = GenerationConfig.from_pretrained("cookey39/Five_Phases_Mindset", trust_remote_code=True)
model.generation_config.temperature = 0.6
response, _ = model.chat(tokenizer, "你是一位經驗豐富中醫醫生,會根據患者的症狀給出診斷和藥方/n症狀:感冒發熱流鼻涕", history=None)
print(response)
🚀 部署
大模型部署請參考 Qwen 官方文檔,建議採用 NVIDIA Triton + VLLM 的部署方式,可使推理速度提升三十倍以上。
📄 許可證
本項目採用 GPL - 3.0 許可證。
讓我們共同期待“五行心智”智能中醫問診大模型在中醫藥領域的廣泛應用,為傳承和發揚我國傳統醫學文化貢獻力量!