🚀 DrMedra4B量化模型項目
本項目提供了基於drwlf/DrMedra4B
模型的量化版本,適用於醫療AI領域,涵蓋臨床推理、摘要生成、診斷等多個場景。通過不同類型的量化文件,可在不同資源條件下使用該模型。
🚀 快速開始
若你不確定如何使用GGUF文件,請參考TheBloke的README獲取更多詳情,包括如何拼接多部分文件。
✨ 主要特性
- 多語言支持:支持英語和羅馬尼亞語。
- 醫療領域適用:適用於醫療AI、臨床推理、摘要生成、診斷等場景。
- 多種量化類型:提供多種不同大小和質量的量化文件供選擇。
📦 模型信息
屬性 |
詳情 |
基礎模型 |
drwlf/DrMedra4B |
數據集 |
nicoboss/medra-medical |
語言 |
英語、羅馬尼亞語 |
庫名稱 |
transformers |
許可證 |
apache - 2.0 |
量化者 |
mradermacher |
標籤 |
醫療AI、臨床推理、摘要生成、診斷、medgemma、微調 |
📚 詳細文檔
關於模型
加權/imatrix量化的https://huggingface.co/drwlf/DrMedra4B 。靜態量化文件可在https://huggingface.co/mradermacher/DrMedra4B - GGUF 獲取。
提供的量化文件
(按大小排序,不一定按質量排序。IQ量化通常比類似大小的非IQ量化更優)
鏈接 |
類型 |
大小/GB |
備註 |
GGUF |
i1 - IQ1_S |
1.2 |
適用於資源極度緊張情況 |
GGUF |
i1 - IQ1_M |
1.3 |
多數為資源緊張情況 |
GGUF |
i1 - IQ2_XXS |
1.4 |
|
GGUF |
i1 - IQ2_XS |
1.5 |
|
GGUF |
i1 - IQ2_S |
1.5 |
|
GGUF |
i1 - IQ2_M |
1.6 |
|
GGUF |
i1 - Q2_K_S |
1.7 |
質量較低 |
GGUF |
i1 - IQ3_XXS |
1.8 |
質量較低 |
GGUF |
i1 - Q2_K |
1.8 |
IQ3_XXS可能更好 |
GGUF |
i1 - IQ3_XS |
2.0 |
|
GGUF |
i1 - IQ3_S |
2.0 |
優於Q3_K* |
GGUF |
i1 - Q3_K_S |
2.0 |
IQ3_XS可能更好 |
GGUF |
i1 - IQ3_M |
2.1 |
|
GGUF |
i1 - Q3_K_M |
2.2 |
IQ3_S可能更好 |
GGUF |
i1 - Q3_K_L |
2.3 |
IQ3_M可能更好 |
GGUF |
i1 - IQ4_XS |
2.4 |
|
GGUF |
i1 - IQ4_NL |
2.5 |
優先選擇IQ4_XS |
GGUF |
i1 - Q4_0 |
2.5 |
速度快,質量低 |
GGUF |
i1 - Q4_K_S |
2.5 |
大小/速度/質量最優 |
GGUF |
i1 - Q4_K_M |
2.6 |
速度快,推薦使用 |
GGUF |
i1 - Q4_1 |
2.7 |
|
GGUF |
i1 - Q5_K_S |
2.9 |
|
GGUF |
i1 - Q5_K_M |
2.9 |
|
GGUF |
i1 - Q6_K |
3.3 |
實際效果類似靜態Q6_K |
以下是ikawrakow提供的比較一些低質量量化類型的便捷圖表(值越低越好):

此外,Artefact2對此事的看法可參考:https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
常見問題解答/模型請求
若你有相關問題或希望對其他模型進行量化,請查看https://huggingface.co/mradermacher/model_requests 。
📄 許可證
本項目使用apache - 2.0許可證。
🙏 致謝
感謝我的公司nethype GmbH,允許我使用其服務器並對我的工作站進行升級,使我能夠在業餘時間完成這項工作。此外,感謝@nicoboss讓我使用他的私人超級計算機,使我能夠提供更多、質量更高的imatrix量化文件。