🚀 ICONNAI的ICONN - 1的Llamacpp imatrix量化模型
本項目提供了ICONNAI的ICONN - 1模型的Llamacpp imatrix量化版本。這些量化模型在不同的場景下具有不同的性能和質量表現,用戶可以根據自身需求進行選擇。
🚀 快速開始
訪問請求說明
由於該模型存在大量負面反饋,為避免用戶在不知情的情況下下載,模型將設置訪問權限。訪問鏈接:相關討論。提交訪問信息後將自動批准,這只是一個額外的“我已瞭解”步驟,提交的信息不會被查看。
模型量化信息
運行方式
✨ 主要特性
提示格式
未指定聊天模板,使用默認格式,可能存在錯誤,詳情請查看原始模型卡片。
<s>[SYSTEM_PROMPT]{system_prompt}[/SYSTEM_PROMPT][INST]{prompt}[/INST]
模型文件下載
可從以下鏈接下載單個文件(非整個分支):
嵌入/輸出權重
部分量化模型(如Q3_K_XL、Q4_K_L等)採用標準量化方法,將嵌入和輸出權重量化為Q8_0,而非默認值。
下載方式
使用huggingface - cli下載
首先,確保已安裝huggingface - cli:
pip install -U "huggingface_hub[cli]"
然後,可指定要下載的特定文件:
huggingface-cli download bartowski/ICONNAI_ICONN-1-GGUF --include "ICONNAI_ICONN-1-Q4_K_M.gguf" --local-dir ./
如果模型大於50GB,它將被拆分為多個文件。要將它們全部下載到本地文件夾,請運行:
huggingface-cli download bartowski/ICONNAI_ICONN-1-GGUF --include "ICONNAI_ICONN-1-Q8_0/*" --local-dir ./
可以指定新的本地目錄(ICONNAI_ICONN - 1 - Q8_0)或將它們全部下載到當前位置(./)。
ARM/AVX信息
以前,會下載Q4_0_4_4/4_8/8_8,這些模型的權重在內存中交錯排列,以通過一次加載更多數據來提高ARM和AVX機器的性能。
現在,有了所謂的權重“在線重新打包”功能,詳情見 此PR。如果使用Q4_0且硬件能從重新打包權重中受益,它將自動即時進行。
從llama.cpp構建 b4282 開始,將無法運行Q4_0_X_X文件,而需要使用Q4_0。
此外,由於 此PR,如果想獲得稍好的質量,可以使用IQ4_NL,它也會為ARM重新打包權重,但目前僅適用於4_4。加載時間可能較慢,但總體速度會提高。
如何選擇文件
可參考 Artefact2提供的詳細分析 及以下步驟選擇合適的文件:
- 確定可運行的模型大小:需要確定可用的系統RAM和GPU的VRAM大小。
- 如果希望模型儘可能快地運行,應使整個模型適合GPU的VRAM。選擇文件大小比GPU總VRAM小1 - 2GB的量化模型。
- 如果追求絕對最高質量,將系統RAM和GPU的VRAM相加,然後選擇文件大小比該總和小1 - 2GB的量化模型。
- 選擇'I - quant'或'K - quant':
- 如果不想過多考慮,選擇K - quant,格式為'QX_K_X',如Q5_K_M。
- 如果想深入瞭解,可查看 [llama.cpp功能矩陣](https://github.com/ggerganov/llama.cpp/wiki/Feature - matrix)。一般來說,如果目標是低於Q4,並且使用cuBLAS(Nvidia)或rocBLAS(AMD),應選擇I - quant,格式為IQX_X,如IQ3_M。I - quant較新,相同大小下性能更好,但在CPU上運行比K - quant慢,需要在速度和性能之間進行權衡。
🔧 技術細節
碳排放信息
屬性 |
詳情 |
二氧化碳排放量 |
1.34 |
數據來源 |
CodeCarbon |
訓練類型 |
預訓練 |
地理位置 |
美國西部 |
使用硬件 |
9 x B200 |
額外提示
⚠️ 重要提示
已知存在一些問題,請在浪費帶寬前閱讀相關討論:問題討論
📄 許可證
許可證類型:other
許可證鏈接:LICENSE
基礎模型:ICONNAI/ICONN - 1
基礎模型關係:量化版本
致謝
感謝kalomaze和Dampf協助創建imatrix校準數據集。
感謝ZeroWw啟發了對嵌入/輸出的實驗。
感謝LM Studio對工作的贊助。
如果想支持作者的工作,請訪問 ko - fi頁面。