🚀 Medra27B 量化模型項目
本項目提供了對 nicoboss/Medra27B
模型的量化版本,涵蓋多種量化類型,適用於文本生成、醫療人工智能等多個領域,為用戶在不同場景下使用該模型提供了便利。
🚀 快速開始
如果你不確定如何使用 GGUF 文件,請參考 TheBloke 的 README 以獲取更多詳細信息,包括如何拼接多部分文件。
✨ 主要特性
- 多語言支持:支持英語和羅馬尼亞語。
- 多領域應用:適用於文本生成、醫療人工智能、摘要生成、診斷推理等多個領域。
- 多種量化類型:提供多種不同大小和質量的量化版本供選擇。
📦 安裝指南
文檔未提供具體安裝步驟,暫不展示。
💻 使用示例
文檔未提供代碼示例,暫不展示。
📚 詳細文檔
關於模型
加權/矩陣量化的 https://huggingface.co/nicoboss/Medra27B 。靜態量化文件可在 https://huggingface.co/mradermacher/Medra27B-GGUF 獲取。
提供的量化版本
(按大小排序,不一定按質量排序。IQ 量化通常優於類似大小的非 IQ 量化)
鏈接 |
類型 |
大小(GB) |
備註 |
GGUF |
i1-IQ1_S |
6.4 |
適用於資源極度緊張的情況 |
GGUF |
i1-IQ1_M |
6.9 |
多數情況下適用於資源緊張的情況 |
GGUF |
i1-IQ2_XXS |
7.8 |
|
GGUF |
i1-IQ2_XS |
8.5 |
|
GGUF |
i1-IQ2_S |
8.9 |
|
GGUF |
i1-IQ2_M |
9.6 |
|
GGUF |
i1-Q2_K_S |
9.9 |
質量較低 |
GGUF |
i1-Q2_K |
10.6 |
IQ3_XXS 可能更好 |
GGUF |
i1-IQ3_XXS |
10.8 |
質量較低 |
GGUF |
i1-IQ3_XS |
11.7 |
|
GGUF |
i1-IQ3_S |
12.3 |
優於 Q3_K* |
GGUF |
i1-Q3_K_S |
12.3 |
IQ3_XS 可能更好 |
GGUF |
i1-IQ3_M |
12.6 |
|
GGUF |
i1-Q3_K_M |
13.5 |
IQ3_S 可能更好 |
GGUF |
i1-Q3_K_L |
14.6 |
IQ3_M 可能更好 |
GGUF |
i1-IQ4_XS |
14.9 |
|
GGUF |
i1-Q4_0 |
15.7 |
速度快,質量低 |
GGUF |
i1-Q4_K_S |
15.8 |
大小/速度/質量最優 |
GGUF |
i1-Q4_K_M |
16.6 |
速度快,推薦使用 |
GGUF |
i1-Q4_1 |
17.3 |
|
GGUF |
i1-Q5_K_S |
18.9 |
|
GGUF |
i1-Q5_K_M |
19.4 |
|
GGUF |
i1-Q6_K |
22.3 |
實際上類似於靜態 Q6_K |
ikawrakow 提供了一個比較一些低質量量化類型的實用圖表(數值越低越好):

此外,Artefact2 對此事的看法可參考:https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
常見問題解答 / 模型請求
你可以訪問 https://huggingface.co/mradermacher/model_requests 查看常見問題的解答,或者如果你希望對其他模型進行量化,也可以在此處提出請求。
🔧 技術細節
文檔未提供具體技術實現細節,暫不展示。
📄 許可證
本項目採用 apache-2.0
許可證。
致謝
感謝我的公司 nethype GmbH 允許我使用其服務器,並對我的工作站進行升級,使我能夠在業餘時間完成這項工作。此外,感謝 @nicoboss 讓我使用他的私人超級計算機,使我能夠提供更多、質量更高的矩陣量化版本。
信息表格
屬性 |
詳情 |
基礎模型 |
nicoboss/Medra27B |
數據集 |
nicoboss/medra-medical |
語言 |
英語、羅馬尼亞語 |
庫名稱 |
transformers |
許可證 |
apache-2.0 |
量化者 |
mradermacher |
標籤 |
文本生成、醫療人工智能、摘要生成、診斷推理、gemma - 3、微調 |