🚀 ICONNAI的ICONN - 1的Llamacpp imatrix量化模型
本项目提供了ICONNAI的ICONN - 1模型的Llamacpp imatrix量化版本。这些量化模型在不同的场景下具有不同的性能和质量表现,用户可以根据自身需求进行选择。
🚀 快速开始
访问请求说明
由于该模型存在大量负面反馈,为避免用户在不知情的情况下下载,模型将设置访问权限。访问链接:相关讨论。提交访问信息后将自动批准,这只是一个额外的“我已了解”步骤,提交的信息不会被查看。
模型量化信息
运行方式
✨ 主要特性
提示格式
未指定聊天模板,使用默认格式,可能存在错误,详情请查看原始模型卡片。
<s>[SYSTEM_PROMPT]{system_prompt}[/SYSTEM_PROMPT][INST]{prompt}[/INST]
模型文件下载
可从以下链接下载单个文件(非整个分支):
嵌入/输出权重
部分量化模型(如Q3_K_XL、Q4_K_L等)采用标准量化方法,将嵌入和输出权重量化为Q8_0,而非默认值。
下载方式
使用huggingface - cli下载
首先,确保已安装huggingface - cli:
pip install -U "huggingface_hub[cli]"
然后,可指定要下载的特定文件:
huggingface-cli download bartowski/ICONNAI_ICONN-1-GGUF --include "ICONNAI_ICONN-1-Q4_K_M.gguf" --local-dir ./
如果模型大于50GB,它将被拆分为多个文件。要将它们全部下载到本地文件夹,请运行:
huggingface-cli download bartowski/ICONNAI_ICONN-1-GGUF --include "ICONNAI_ICONN-1-Q8_0/*" --local-dir ./
可以指定新的本地目录(ICONNAI_ICONN - 1 - Q8_0)或将它们全部下载到当前位置(./)。
ARM/AVX信息
以前,会下载Q4_0_4_4/4_8/8_8,这些模型的权重在内存中交错排列,以通过一次加载更多数据来提高ARM和AVX机器的性能。
现在,有了所谓的权重“在线重新打包”功能,详情见 此PR。如果使用Q4_0且硬件能从重新打包权重中受益,它将自动实时进行。
从llama.cpp构建 b4282 开始,将无法运行Q4_0_X_X文件,而需要使用Q4_0。
此外,由于 此PR,如果想获得稍好的质量,可以使用IQ4_NL,它也会为ARM重新打包权重,但目前仅适用于4_4。加载时间可能较慢,但总体速度会提高。
如何选择文件
可参考 Artefact2提供的详细分析 及以下步骤选择合适的文件:
- 确定可运行的模型大小:需要确定可用的系统RAM和GPU的VRAM大小。
- 如果希望模型尽可能快地运行,应使整个模型适合GPU的VRAM。选择文件大小比GPU总VRAM小1 - 2GB的量化模型。
- 如果追求绝对最高质量,将系统RAM和GPU的VRAM相加,然后选择文件大小比该总和小1 - 2GB的量化模型。
- 选择'I - quant'或'K - quant':
- 如果不想过多考虑,选择K - quant,格式为'QX_K_X',如Q5_K_M。
- 如果想深入了解,可查看 [llama.cpp功能矩阵](https://github.com/ggerganov/llama.cpp/wiki/Feature - matrix)。一般来说,如果目标是低于Q4,并且使用cuBLAS(Nvidia)或rocBLAS(AMD),应选择I - quant,格式为IQX_X,如IQ3_M。I - quant较新,相同大小下性能更好,但在CPU上运行比K - quant慢,需要在速度和性能之间进行权衡。
🔧 技术细节
碳排放信息
属性 |
详情 |
二氧化碳排放量 |
1.34 |
数据来源 |
CodeCarbon |
训练类型 |
预训练 |
地理位置 |
美国西部 |
使用硬件 |
9 x B200 |
额外提示
⚠️ 重要提示
已知存在一些问题,请在浪费带宽前阅读相关讨论:问题讨论
📄 许可证
许可证类型:other
许可证链接:LICENSE
基础模型:ICONNAI/ICONN - 1
基础模型关系:量化版本
致谢
感谢kalomaze和Dampf协助创建imatrix校准数据集。
感谢ZeroWw启发了对嵌入/输出的实验。
感谢LM Studio对工作的赞助。
如果想支持作者的工作,请访问 ko - fi页面。