🚀 Hacker-News-Comments-Summarization-Llama-3.1-8B-Instruct
このプロジェクトは、Hacker Newsのコメントを要約するためのLlama-3.1-8B-Instructモデルに関するものです。重み付けされた静的な量子化データが提供されており、GGUF形式で利用可能です。
🚀 クイックスタート
このモデルを使用するには、まずGGUFファイルの使い方を理解する必要があります。詳細については、TheBlokeのREADMEを参照してください。
✨ 主な機能
- Hacker Newsのコメントを要約することができます。
- 重み付けされた静的な量子化データが提供されています。
- 様々なサイズと品質の量子化データが利用可能です。
📦 インストール
このセクションでは、具体的なインストール手順が記載されていません。
💻 使用例
このセクションでは、具体的なコード例が記載されていません。
📚 ドキュメント
基本情報
属性 |
详情 |
ベースモデル |
georgeck/Hacker-News-Comments-Summarization-Llama-3.1-8B-Instruct |
データセット |
georgeck/hacker-news-discussion-summarization-large |
言語 |
en |
ライブラリ名 |
transformers |
ライセンス |
llama3.1 |
量子化担当者 |
mradermacher |
タグ |
summarization, hacker-news, hn-companion |
量子化データについて
https://huggingface.co/georgeck/Hacker-News-Comments-Summarization-Llama-3.1-8B-Instruct の重み付け/imatrix量子化データです。
静的な量子化データは、https://huggingface.co/mradermacher/Hacker-News-Comments-Summarization-Llama-3.1-8B-Instruct-GGUF で利用可能です。
提供される量子化データ
(サイズでソートされており、必ずしも品質を反映しているわけではありません。IQ量子化は、同じサイズの非IQ量子化よりも優れていることが多いです。)
リンク |
タイプ |
サイズ (GB) |
備考 |
GGUF |
i1-IQ1_S |
2.1 |
非常に必要な場合 |
GGUF |
i1-IQ1_M |
2.3 |
ほとんど必要な場合 |
GGUF |
i1-IQ2_XXS |
2.5 |
|
GGUF |
i1-IQ2_XS |
2.7 |
|
GGUF |
i1-IQ2_S |
2.9 |
|
GGUF |
i1-IQ2_M |
3.0 |
|
GGUF |
i1-Q2_K_S |
3.1 |
非常に低品質 |
GGUF |
i1-Q2_K |
3.3 |
IQ3_XXSの方が良い可能性があります |
GGUF |
i1-IQ3_XXS |
3.4 |
低品質 |
GGUF |
i1-IQ3_XS |
3.6 |
|
GGUF |
i1-Q3_K_S |
3.8 |
IQ3_XSの方が良い可能性があります |
GGUF |
i1-IQ3_S |
3.8 |
Q3_K*よりも良い |
GGUF |
i1-IQ3_M |
3.9 |
|
GGUF |
i1-Q3_K_M |
4.1 |
IQ3_Sの方が良い可能性があります |
GGUF |
i1-Q3_K_L |
4.4 |
IQ3_Mの方が良い可能性があります |
GGUF |
i1-IQ4_XS |
4.5 |
|
GGUF |
i1-Q4_0 |
4.8 |
高速だが低品質 |
GGUF |
i1-IQ4_NL |
4.8 |
IQ4_XSの方が良い |
GGUF |
i1-Q4_K_S |
4.8 |
サイズ/速度/品質のバランスが良い |
GGUF |
i1-Q4_K_M |
5.0 |
高速でおすすめ |
GGUF |
i1-Q4_1 |
5.2 |
|
GGUF |
i1-Q5_K_S |
5.7 |
|
GGUF |
i1-Q5_K_M |
5.8 |
|
GGUF |
i1-Q6_K |
6.7 |
静的なQ6_Kに近い |
ikawrakowによる低品質の量子化タイプを比較した便利なグラフがあります(数値が低い方が良い):

また、Artefact2のこの問題に関する考え方はこちらです:
https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
FAQ / モデルリクエスト
質問に対する回答や、他のモデルの量子化を希望する場合は、こちらを参照してください。
🔧 技術詳細
このセクションでは、具体的な技術的な詳細が記載されていません。
📄 ライセンス
このモデルは、llama3.1ライセンスの下で提供されています。
謝辞
私の会社であるnethype GmbHに、サーバーの使用を許可し、ワークステーションのアップグレードを提供してくれたことに感謝します。また、@nicobossに、彼のプライベートなスーパーコンピューターへのアクセスを許可してくれたことにも感謝します。これにより、私はより多くのimatrix量子化データを、より高い品質で提供することができました。