🚀 Dermatech-Qwen2-VL-2B量化模型
這是Dermatech-Qwen2-VL-2B模型的量化版本,支持文本生成、圖像轉文本、視覺問答等多模態任務。提供了多種量化類型的文件,可根據需求選擇使用。
📚 詳細文檔
模型信息
屬性 |
詳情 |
基礎模型 |
Rewatiramans/Dermatech-Qwen2-VL-2B |
語言 |
en |
庫名稱 |
transformers |
量化者 |
mradermacher |
標籤 |
text-generation、image-to-text、visual-question-answering、multimodal、qwen、lora |
關於模型
https://huggingface.co/Rewatiramans/Dermatech-Qwen2-VL-2B 的加權/矩陣量化版本。靜態量化文件可在 https://huggingface.co/mradermacher/Dermatech-Qwen2-VL-2B-GGUF 獲取。
使用說明
如果您不確定如何使用 GGUF 文件,請參考 TheBloke 的 README 以獲取更多詳細信息,包括如何拼接多部分文件。
提供的量化文件
(按大小排序,不一定代表質量。IQ 量化通常比類似大小的非 IQ 量化更優)
鏈接 |
類型 |
大小/GB |
備註 |
GGUF |
i1-IQ1_S |
0.5 |
應急使用 |
GGUF |
i1-IQ1_M |
0.6 |
大多用於應急 |
GGUF |
i1-IQ2_XXS |
0.6 |
|
GGUF |
i1-IQ2_XS |
0.7 |
|
GGUF |
i1-IQ2_S |
0.7 |
|
GGUF |
i1-Q2_K_S |
0.7 |
質量非常低 |
GGUF |
i1-IQ3_XXS |
0.8 |
質量較低 |
GGUF |
i1-Q2_K |
0.8 |
IQ3_XXS 可能更好 |
GGUF |
i1-IQ3_XS |
0.8 |
|
GGUF |
i1-Q3_K_S |
0.9 |
IQ3_XS 可能更好 |
GGUF |
i1-IQ3_S |
0.9 |
優於 Q3_K* |
GGUF |
i1-IQ3_M |
0.9 |
|
GGUF |
i1-Q3_K_M |
0.9 |
IQ3_S 可能更好 |
GGUF |
i1-Q3_K_L |
1.0 |
IQ3_M 可能更好 |
GGUF |
i1-IQ4_XS |
1.0 |
|
GGUF |
i1-IQ4_NL |
1.0 |
首選 IQ4_XS |
GGUF |
i1-Q4_0 |
1.0 |
速度快,質量低 |
GGUF |
i1-Q4_K_S |
1.0 |
大小/速度/質量最優 |
GGUF |
i1-Q4_K_M |
1.1 |
速度快,推薦使用 |
GGUF |
i1-Q4_1 |
1.1 |
|
GGUF |
i1-Q5_K_S |
1.2 |
|
GGUF |
i1-Q5_K_M |
1.2 |
|
GGUF |
i1-Q6_K |
1.4 |
實際上類似於靜態 Q6_K |
以下是 ikawrakow 提供的一個比較一些低質量量化類型的實用圖表(數值越低越好):

此外,這裡還有 Artefact2 對此事的看法:
https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
常見問題解答/模型請求
請訪問 https://huggingface.co/mradermacher/model_requests 查看您可能遇到的問題的答案,以及如果您需要對其他模型進行量化。
致謝
感謝我的公司 nethype GmbH 允許我使用其服務器,並對我的工作站進行升級,使我能夠在業餘時間完成這項工作。此外,感謝 @nicoboss 讓我使用他的私人超級計算機,使我能夠提供更多、質量更高的矩陣量化文件。