🚀 WR30a-Deep-7B-0711模型量化版本
本項目是對prithivMLmods/WR30a-Deep-7B-0711
模型的量化版本,支持多語言,適用於文本生成推理、圖像字幕生成、光學字符識別等多種場景。
🚀 快速開始
若你不確定如何使用GGUF文件,請參考 TheBloke的README 獲取更多詳情,包括如何拼接多部分文件。
✨ 主要特性
- 多語言支持:支持英語和中文。
- 多任務能力:適用於文本生成推理、圖像字幕生成、光學字符識別、智能字符識別等多種任務。
- 多種量化版本:提供多種不同大小和質量的量化版本供選擇。
📚 詳細文檔
模型信息
屬性 |
詳情 |
基礎模型 |
prithivMLmods/WR30a-Deep-7B-0711 |
支持語言 |
英語、中文 |
庫名稱 |
transformers |
許可證 |
apache-2.0 |
量化者 |
mradermacher |
標籤 |
text-generation-inference、image-captioning、optical-character-recognition、intelligent-character-recognition、caption、ocr、visual-understanding、art、icr、image-to-text、vlm |
關於模型
這是 https://huggingface.co/prithivMLmods/WR30a-Deep-7B-0711 的加權/矩陣量化版本。
如需便捷的概述和下載列表,請訪問我們的 此模型頁面。
靜態量化版本可在 https://huggingface.co/mradermacher/WR30a-Deep-7B-0711-GGUF 獲取。
這是一個視覺模型 - mmproj文件(如果有)將位於 靜態倉庫 中。
提供的量化版本
(按大小排序,不一定按質量排序。IQ量化通常優於類似大小的非IQ量化)
鏈接 |
類型 |
大小/GB |
說明 |
GGUF |
i1-IQ1_S |
2.0 |
適合急需的情況 |
GGUF |
i1-IQ1_M |
2.1 |
大多用於急需情況 |
GGUF |
i1-IQ2_XXS |
2.4 |
|
GGUF |
i1-IQ2_XS |
2.6 |
|
GGUF |
i1-IQ2_S |
2.7 |
|
GGUF |
i1-IQ2_M |
2.9 |
|
GGUF |
i1-Q2_K_S |
2.9 |
質量非常低 |
GGUF |
i1-Q2_K |
3.1 |
IQ3_XXS可能更好 |
GGUF |
i1-IQ3_XXS |
3.2 |
質量較低 |
GGUF |
i1-IQ3_XS |
3.4 |
|
GGUF |
i1-Q3_K_S |
3.6 |
IQ3_XS可能更好 |
GGUF |
i1-IQ3_S |
3.6 |
優於Q3_K* |
GGUF |
i1-IQ3_M |
3.7 |
|
GGUF |
i1-Q3_K_M |
3.9 |
IQ3_S可能更好 |
GGUF |
i1-Q3_K_L |
4.2 |
IQ3_M可能更好 |
GGUF |
i1-IQ4_XS |
4.3 |
|
GGUF |
i1-IQ4_NL |
4.5 |
優先選擇IQ4_XS |
GGUF |
i1-Q4_0 |
4.5 |
速度快,質量低 |
GGUF |
i1-Q4_K_S |
4.6 |
大小/速度/質量最優 |
GGUF |
i1-Q4_K_M |
4.8 |
速度快,推薦使用 |
GGUF |
i1-Q4_1 |
5.0 |
|
GGUF |
i1-Q5_K_S |
5.4 |
|
GGUF |
i1-Q5_K_M |
5.5 |
|
GGUF |
i1-Q6_K |
6.4 |
實際上類似於靜態Q6_K |
以下是ikawrakow提供的一張比較一些低質量量化類型的便捷圖表(數值越低越好):

此外,這裡是Artefact2對此事的看法:
https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
常見問題解答/模型請求
請訪問 https://huggingface.co/mradermacher/model_requests 獲取你可能有的問題的答案,以及如果你希望對其他模型進行量化。
📄 許可證
本模型使用apache-2.0
許可證。
🙏 致謝
感謝我的公司 nethype GmbH 讓我使用其服務器,並對我的工作站進行升級,使我能夠在業餘時間完成這項工作。此外,感謝 @nicoboss 讓我使用他的私人超級計算機,使我能夠提供比以往更多、質量更高的矩陣量化版本。