# 醫療問答

Echelon AI Med Qwen2 7B GGUF
該項目提供了Echelon-AI/Med-Qwen2-7B模型的GGUF量化文件,由Featherless AI提供支持,旨在增強模型性能並降低運行成本。
大型語言模型
E
featherless-ai-quants
183
1
Medgemma 27b Text It GGUF
其他
MedGemma-27B-Text-IT是基於Gemma 3架構的醫療專用大語言模型,針對醫療文本處理進行了優化,提供多種量化版本以適應不同硬件環境。
大型語言模型 Transformers
M
Mungert
1,464
3
Qwenmedic V1 Gguf
Apache-2.0
QwenMedic-v1是基於Qwen3-1.7B開發的醫療專用語言模型,針對臨床推理和指令跟隨任務進行了微調,提升診斷問答和臨床摘要生成能力。
大型語言模型 英語
Q
ross-dev
19
0
Medra I1 GGUF
Apache-2.0
Medra是基於醫療領域數據集微調的量化語言模型,專注於醫療問答和摘要生成任務。
大型語言模型 支持多種語言
M
mradermacher
369
0
Qwen2.5 Medical Lora
Apache-2.0
基於Qwen2.5-3B-Instruct模型在醫療健康數據集上微調的版本,旨在生成與醫療相關的響應,為用戶提供健康指導。
大型語言模型 Transformers 英語
Q
AbdullahAlnemr1
58
1
Healthgpt M3
MIT
HealthGPT 是一個專為統一的多模態醫療任務而開發的模型,支持英文和中文。
大型語言模型 支持多種語言
H
lintw
79
8
Deepseek R1 Medical Response
這是一個基於DeepSeek-R1微調的醫療領域問答模型,專注於處理醫療相關的文本生成任務。
大型語言模型 Transformers 英語
D
beita6969
28
2
Qwen2.5 Aloe Beta 7B
Apache-2.0
Qwen2.5-Aloe-Beta-7B是一款開源醫療大語言模型,在多項醫療任務中達到最先進性能。基於Qwen2.5-7B架構微調,訓練數據涵蓋18億token的多樣化醫療任務。
大型語言模型 Transformers 英語
Q
HPAI-BSC
631
5
Llama3 Aloe 8B Alpha GGUF
蘆薈(Aloe)是一個全新的醫療大語言模型家族,通過模型融合和先進的提示策略,在同類型開源模型中極具競爭力。
大型語言模型 Transformers 英語
L
mav23
194
1
Chuxin Embedding Q4 K M GGUF
這是一個從Chuxin-Embedding轉換而來的GGUF格式模型,主要用於中文文本檢索任務。
文本嵌入 中文
C
lagoon999
14
1
Medichat V2 Llama3 8B
其他
基於Llama3-8B改進的醫療對話模型,專門針對醫學問答和臨床文本處理優化
大型語言模型 Transformers 英語
M
sethuiyer
21
7
Llama3 8B Slerp Med Chinese
基於Llama-3-8B的醫療領域中文模型,通過slerp方法合併WiNGPT2和JSL-MedLlama-3-8B模型
大型語言模型 Transformers 支持多種語言
L
shanchen
7,793
6
JSL MedPhi2 2.7B
由John Snow Labs開發的醫療領域大語言模型,基於Microsoft Phi-2架構優化
大型語言模型 Transformers 其他
J
johnsnowlabs
3,050
3
JSL MedLlama 3 8B V2.0
由John Snow Labs開發的醫療領域大語言模型,基於Meta-Llama-3-8B進行監督微調(SFT)
大型語言模型 Transformers
J
johnsnowlabs
11.01k
38
Llama Medx V2
Apache-2.0
基於epfl-llm/meditron-7b微調的Llama3 8B系列醫療聊天模型,採用SFT QLora技術訓練
大型語言模型 Transformers
L
skumar9
2,606
1
Medichat Llama3 8B
其他
基於LLaMa-3架構的醫療專用語言模型,在大量健康信息數據集上微調,提供專業醫療建議
大型語言模型 Transformers 英語
M
sethuiyer
1,995
39
Base 7b V0.2
Apache-2.0
由醫學醫生訓練的大型醫療領域語言模型,首個在MedQA(USMLE)考試中得分超過60%及格線的7b模型
大型語言模型 Transformers 英語
B
internistai
91
60
Meltemi 7B V1
Apache-2.0
首個希臘語大型基礎語言模型,基於Mistral-7B架構,通過400億token的希臘語和英語語料增強希臘語能力
大型語言模型 Transformers 支持多種語言
M
ilsp
49
51
Biomistral 7B DARE AWQ QGS128 W4 GEMM
基於Mistral架構的醫療領域開源大語言模型,通過PubMed Central文本繼續預訓練
大型語言模型 Transformers
B
BioMistral
135
3
Dr Samantha 7B GGUF
Dr Samantha 7B 是一個基於Llama架構的醫療領域大語言模型,支持英文和中文,專注於醫療問答和健康諮詢任務。
大型語言模型 支持多種語言
D
TheBloke
1,008
23
Llama 2 GGML Medical Chatbot
MIT
基於Llama-2-7B-Chat-GGML模型的醫療領域聊天機器人,專注於回答醫學相關問題並提供醫學文本生成能力
大型語言模型 Transformers 英語
L
ThisIs-Developer
71
37
Wingpt2 14B Base
Apache-2.0
WiNGPT2是基於GPT架構的醫療垂直領域大模型,致力於整合專業醫學知識、醫療信息和數據,為行業提供智能化的醫療問答、診斷支持和醫學知識服務。
大型語言模型 Transformers 中文
W
winninghealth
16
4
Meditron 7B AWQ
Meditron 7B是EPFL LLM Team開發的醫療領域大語言模型,基於Llama-2-7B繼續預訓練,專注於醫療知識編碼和臨床決策支持。
大型語言模型 Transformers 英語
M
TheBloke
38.22k
3
Medical ChatBot
MIT
一個基於GPT-2的醫療問答聊天機器人模型,專注於提供醫療相關信息回答
大型語言模型 Transformers 英語
M
Mohammed-Altaf
172
9
Meditron 70b
Meditron-70B是基於Llama-2-70B通過醫療領域持續預訓練的開源大語言模型,專注於醫療知識編碼和推理任務。
大型語言模型 Transformers 英語
M
epfl-llm
214
235
Med42 70B GGUF
其他
Med42 70B是由阿聯酋M42 Health創建的醫療助手模型,專注於醫療健康領域的文本生成任務。
大型語言模型 英語
M
TheBloke
1,854
22
Wingpt2 7B Base
Apache-2.0
WiNGPT2是基於GPT架構的醫療垂直領域大模型,致力於整合專業醫學知識、醫療信息和數據,為行業提供智能問答、診斷支持及醫學知識服務。
大型語言模型 Transformers 中文
W
winninghealth
26
10
PMC LLaMA 13B
Openrail
PMC_LLaMA_13B是基於LLaMA-13B架構的醫療領域大語言模型,通過醫學語料庫進行持續預訓練和指令微調,具備專業醫療知識問答能力
大型語言模型 Transformers
P
axiong
1,342
33
Medguanaco 65b GPTQ
CC
專為醫療領域任務微調的大型語言模型LoRa,基於650億參數的LLaMA Guanaco LORA,提升問答和醫療對話任務性能
大型語言模型 Transformers 英語
M
nmitchko
49
5
Medical Chatbot
一個基於GPT-2的醫療領域對話生成模型,用於回答醫療相關問題,但不可用於實際醫療決策。
大型語言模型 Transformers
M
jianghc
191
10
Medalpaca 13b
CC
MedAlpaca 13b是一個專門針對醫療領域任務進行微調的大型語言模型,基於LLaMA架構,包含130億參數,旨在提升醫療問答和對話任務的性能。
大型語言模型 Transformers 英語
M
medalpaca
558
86
Medalpaca 7b
CC
專為醫療領域優化的70億參數語言模型,基於LLaMA架構微調,擅長醫療問答和對話任務
大型語言模型 Transformers 英語
M
medalpaca
9,352
78
Chinese Pretrain Mrc Macbert Large
Apache-2.0
基於海量中文機器閱讀理解數據訓練的MacBERT-Large模型,在閱讀理解/文本分類等任務上有顯著提升
問答系統 Transformers 中文
C
luhua
106
21
Chinese Pretrain Mrc Roberta Wwm Ext Large
Apache-2.0
基於海量中文閱讀理解數據訓練的roberta_wwm_ext_large模型,在閱讀理解/文本分類等任務上表現顯著提升。
問答系統 Transformers 中文
C
luhua
790
84
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase