🚀 黑客新闻评论总结Llama 3.1-8B指令模型
本项目基于Llama 3.1-8B模型,专注于黑客新闻评论的总结任务。它使用特定的数据集进行训练,能为用户提供高效准确的评论总结服务。
🚀 快速开始
若你不确定如何使用GGUF文件,请参考 TheBloke的README 获取更多详细信息,包括如何拼接多部分文件。
✨ 主要特性
- 针对性总结:专门针对黑客新闻评论进行总结,能有效提取关键信息。
- 多种量化类型:提供多种不同大小和质量的量化文件供选择。
📦 安装指南
文档未提供具体安装步骤,暂不展示。
💻 使用示例
文档未提供代码示例,暂不展示。
📚 详细文档
模型信息
属性 |
详情 |
基础模型 |
georgeck/Hacker-News-Comments-Summarization-Llama-3.1-8B-Instruct |
数据集 |
georgeck/hacker-news-discussion-summarization-large |
语言 |
英语 |
库名称 |
transformers |
许可证 |
llama3.1 |
量化者 |
mradermacher |
标签 |
summarization、hacker-news、hn-companion |
关于模型
加权/矩阵量化的 https://huggingface.co/georgeck/Hacker-News-Comments-Summarization-Llama-3.1-8B-Instruct。静态量化文件可在 https://huggingface.co/mradermacher/Hacker-News-Comments-Summarization-Llama-3.1-8B-Instruct-GGUF 获取。
提供的量化文件
(按大小排序,不一定代表质量。IQ量化通常优于类似大小的非IQ量化)
链接 |
类型 |
大小/GB |
备注 |
GGUF |
i1-IQ1_S |
2.1 |
适用于资源紧张情况 |
GGUF |
i1-IQ1_M |
2.3 |
多数情况下资源紧张时使用 |
GGUF |
i1-IQ2_XXS |
2.5 |
|
GGUF |
i1-IQ2_XS |
2.7 |
|
GGUF |
i1-IQ2_S |
2.9 |
|
GGUF |
i1-IQ2_M |
3.0 |
|
GGUF |
i1-Q2_K_S |
3.1 |
质量非常低 |
GGUF |
i1-Q2_K |
3.3 |
IQ3_XXS可能更好 |
GGUF |
i1-IQ3_XXS |
3.4 |
质量较低 |
GGUF |
i1-IQ3_XS |
3.6 |
|
GGUF |
i1-Q3_K_S |
3.8 |
IQ3_XS可能更好 |
GGUF |
i1-IQ3_S |
3.8 |
优于Q3_K* |
GGUF |
i1-IQ3_M |
3.9 |
|
GGUF |
i1-Q3_K_M |
4.1 |
IQ3_S可能更好 |
GGUF |
i1-Q3_K_L |
4.4 |
IQ3_M可能更好 |
GGUF |
i1-IQ4_XS |
4.5 |
|
GGUF |
i1-Q4_0 |
4.8 |
速度快,质量低 |
GGUF |
i1-IQ4_NL |
4.8 |
优先选择IQ4_XS |
GGUF |
i1-Q4_K_S |
4.8 |
大小/速度/质量最优 |
GGUF |
i1-Q4_K_M |
5.0 |
速度快,推荐使用 |
GGUF |
i1-Q4_1 |
5.2 |
|
GGUF |
i1-Q5_K_S |
5.7 |
|
GGUF |
i1-Q5_K_M |
5.8 |
|
GGUF |
i1-Q6_K |
6.7 |
实际效果类似静态Q6_K |
这里有一张由ikawrakow提供的方便的图表,比较了一些低质量量化类型(数值越低越好):

此外,Artefact2对此事的看法可参考:https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
常见问题解答/模型请求
若你有相关问题或希望对其他模型进行量化,请参考 https://huggingface.co/mradermacher/model_requests。
🔧 技术细节
文档未提供具体技术细节,暂不展示。
📄 许可证
本项目使用的许可证为llama3.1。
🙏 致谢
感谢我的公司 nethype GmbH 让我使用其服务器,并对我的工作站进行升级,使我能够在业余时间完成这项工作。此外,感谢 @nicoboss 让我使用他的私人超级计算机,使我能够提供更多、质量更高的矩阵量化文件。