🚀 黑客新聞評論總結Llama 3.1-8B指令模型
本項目基於Llama 3.1-8B模型,專注於黑客新聞評論的總結任務。它使用特定的數據集進行訓練,能為用戶提供高效準確的評論總結服務。
🚀 快速開始
若你不確定如何使用GGUF文件,請參考 TheBloke的README 獲取更多詳細信息,包括如何拼接多部分文件。
✨ 主要特性
- 針對性總結:專門針對黑客新聞評論進行總結,能有效提取關鍵信息。
- 多種量化類型:提供多種不同大小和質量的量化文件供選擇。
📦 安裝指南
文檔未提供具體安裝步驟,暫不展示。
💻 使用示例
文檔未提供代碼示例,暫不展示。
📚 詳細文檔
模型信息
屬性 |
詳情 |
基礎模型 |
georgeck/Hacker-News-Comments-Summarization-Llama-3.1-8B-Instruct |
數據集 |
georgeck/hacker-news-discussion-summarization-large |
語言 |
英語 |
庫名稱 |
transformers |
許可證 |
llama3.1 |
量化者 |
mradermacher |
標籤 |
summarization、hacker-news、hn-companion |
關於模型
加權/矩陣量化的 https://huggingface.co/georgeck/Hacker-News-Comments-Summarization-Llama-3.1-8B-Instruct。靜態量化文件可在 https://huggingface.co/mradermacher/Hacker-News-Comments-Summarization-Llama-3.1-8B-Instruct-GGUF 獲取。
提供的量化文件
(按大小排序,不一定代表質量。IQ量化通常優於類似大小的非IQ量化)
鏈接 |
類型 |
大小/GB |
備註 |
GGUF |
i1-IQ1_S |
2.1 |
適用於資源緊張情況 |
GGUF |
i1-IQ1_M |
2.3 |
多數情況下資源緊張時使用 |
GGUF |
i1-IQ2_XXS |
2.5 |
|
GGUF |
i1-IQ2_XS |
2.7 |
|
GGUF |
i1-IQ2_S |
2.9 |
|
GGUF |
i1-IQ2_M |
3.0 |
|
GGUF |
i1-Q2_K_S |
3.1 |
質量非常低 |
GGUF |
i1-Q2_K |
3.3 |
IQ3_XXS可能更好 |
GGUF |
i1-IQ3_XXS |
3.4 |
質量較低 |
GGUF |
i1-IQ3_XS |
3.6 |
|
GGUF |
i1-Q3_K_S |
3.8 |
IQ3_XS可能更好 |
GGUF |
i1-IQ3_S |
3.8 |
優於Q3_K* |
GGUF |
i1-IQ3_M |
3.9 |
|
GGUF |
i1-Q3_K_M |
4.1 |
IQ3_S可能更好 |
GGUF |
i1-Q3_K_L |
4.4 |
IQ3_M可能更好 |
GGUF |
i1-IQ4_XS |
4.5 |
|
GGUF |
i1-Q4_0 |
4.8 |
速度快,質量低 |
GGUF |
i1-IQ4_NL |
4.8 |
優先選擇IQ4_XS |
GGUF |
i1-Q4_K_S |
4.8 |
大小/速度/質量最優 |
GGUF |
i1-Q4_K_M |
5.0 |
速度快,推薦使用 |
GGUF |
i1-Q4_1 |
5.2 |
|
GGUF |
i1-Q5_K_S |
5.7 |
|
GGUF |
i1-Q5_K_M |
5.8 |
|
GGUF |
i1-Q6_K |
6.7 |
實際效果類似靜態Q6_K |
這裡有一張由ikawrakow提供的方便的圖表,比較了一些低質量量化類型(數值越低越好):

此外,Artefact2對此事的看法可參考:https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
常見問題解答/模型請求
若你有相關問題或希望對其他模型進行量化,請參考 https://huggingface.co/mradermacher/model_requests。
🔧 技術細節
文檔未提供具體技術細節,暫不展示。
📄 許可證
本項目使用的許可證為llama3.1。
🙏 致謝
感謝我的公司 nethype GmbH 讓我使用其服務器,並對我的工作站進行升級,使我能夠在業餘時間完成這項工作。此外,感謝 @nicoboss 讓我使用他的私人超級計算機,使我能夠提供更多、質量更高的矩陣量化文件。