🚀 BGE-large-zh-v1.5量化模型
本項目提供了https://huggingface.co/BAAI/bge-large-zh-v1.5 的加權/矩陣量化版本,方便用戶使用和下載。
🚀 快速開始
如果你不確定如何使用GGUF文件,可以參考TheBloke的README,其中包含了如何使用以及如何拼接多部分文件的詳細信息。
📚 詳細文檔
關於模型
本項目是對https://huggingface.co/BAAI/bge-large-zh-v1.5 進行加權/矩陣量化的版本。靜態量化文件可在https://huggingface.co/mradermacher/bge-large-zh-v1.5-GGUF 獲取。
為了方便查看和下載,請訪問我們的該模型頁面。
提供的量化版本
(按大小排序,不一定代表質量。IQ量化通常比類似大小的非IQ量化更優)
鏈接 |
類型 |
大小/GB |
備註 |
GGUF |
i1-IQ1_S |
0.2 |
適用於急需的情況 |
GGUF |
i1-IQ1_M |
0.2 |
大多用於急需情況 |
GGUF |
i1-IQ2_XXS |
0.2 |
|
GGUF |
i1-IQ2_XS |
0.2 |
|
GGUF |
i1-IQ2_S |
0.2 |
|
GGUF |
i1-IQ2_M |
0.2 |
|
GGUF |
i1-Q2_K_S |
0.2 |
質量非常低 |
GGUF |
i1-IQ3_XXS |
0.2 |
質量較低 |
GGUF |
i1-Q2_K |
0.2 |
IQ3_XXS可能更好 |
GGUF |
i1-IQ3_XS |
0.2 |
|
GGUF |
i1-IQ3_S |
0.3 |
優於Q3_K* |
GGUF |
i1-Q3_K_S |
0.3 |
IQ3_XS可能更好 |
GGUF |
i1-IQ3_M |
0.3 |
|
GGUF |
i1-Q3_K_M |
0.3 |
IQ3_S可能更好 |
GGUF |
i1-IQ4_XS |
0.3 |
|
GGUF |
i1-Q3_K_L |
0.3 |
IQ3_M可能更好 |
GGUF |
i1-IQ4_NL |
0.3 |
優先選擇IQ4_XS |
GGUF |
i1-Q4_0 |
0.3 |
速度快,質量低 |
GGUF |
i1-Q4_K_S |
0.3 |
大小/速度/質量最優 |
GGUF |
i1-Q4_K_M |
0.3 |
速度快,推薦使用 |
GGUF |
i1-Q4_1 |
0.3 |
|
GGUF |
i1-Q5_K_S |
0.3 |
|
GGUF |
i1-Q5_K_M |
0.3 |
|
GGUF |
i1-Q6_K |
0.4 |
實際上類似於靜態Q6_K |
以下是ikawrakow提供的一張比較低質量量化類型的實用圖表(數值越低越好):

此外,你還可以查看Artefact2對此事的看法:https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
常見問題與模型請求
如果你有相關問題或希望對其他模型進行量化,請查看https://huggingface.co/mradermacher/model_requests 。
📄 許可證
本項目採用MIT許可證。
🙏 致謝
感謝我的公司nethype GmbH,允許我使用其服務器,並對我的工作站進行升級,使我能夠在業餘時間完成這項工作。此外,感謝@nicoboss讓我使用他的私人超級計算機,使我能夠提供更多、質量更高的矩陣量化版本。