🚀 LiberalMind_v1.5 量子化モデル
このプロジェクトは、LiberalMind_v1.5モデルの量子化バージョンを提供しています。量子化されたモデルは、メモリ使用量を削減し、推論速度を向上させることができます。
🚀 クイックスタート
モデル情報
属性 |
详情 |
ベースモデル |
liberalusa/LiberalMind_v1.5 |
言語 |
en |
ライブラリ名 |
transformers |
ライセンス |
apache - 2.0 |
量子化担当者 |
mradermacher |
タグ |
text - generation, instruction - tuned, qwen, peft, reasoning |
概要
https://huggingface.co/liberalusa/LiberalMind_v1.5 のweighted/imatrix量子化モデルです。静的量子化モデルは https://huggingface.co/mradermacher/LiberalMind_v1.5 - GGUF で利用可能です。
使用方法
GGUFファイルの使い方がわからない場合は、[TheBlokeのREADME](https://huggingface.co/TheBloke/KafkaLM - 70B - German - V0.1 - GGUF) を参照してください。ここには、マルチパートファイルの結合方法などの詳細が記載されています。
提供される量子化モデル
(サイズ順にソートされており、必ずしも品質の順ではありません。IQ量子化モデルは、同じサイズの非IQ量子化モデルよりも優れていることが多いです)
リンク |
タイプ |
サイズ(GB) |
備考 |
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - IQ1_S.gguf) |
i1 - IQ1_S |
2.0 |
非常に必要な場合 |
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - IQ1_M.gguf) |
i1 - IQ1_M |
2.1 |
ほとんど必要な場合 |
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - IQ2_XXS.gguf) |
i1 - IQ2_XXS |
2.4 |
|
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - IQ2_XS.gguf) |
i1 - IQ2_XS |
2.6 |
|
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - IQ2_S.gguf) |
i1 - IQ2_S |
2.7 |
|
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - IQ2_M.gguf) |
i1 - IQ2_M |
2.9 |
|
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - Q2_K_S.gguf) |
i1 - Q2_K_S |
2.9 |
非常に低品質 |
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - Q2_K.gguf) |
i1 - Q2_K |
3.1 |
IQ3_XXSの方が良い可能性があります |
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - IQ3_XXS.gguf) |
i1 - IQ3_XXS |
3.2 |
低品質 |
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - IQ3_XS.gguf) |
i1 - IQ3_XS |
3.4 |
|
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - Q3_K_S.gguf) |
i1 - Q3_K_S |
3.6 |
IQ3_XSの方が良い可能性があります |
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - IQ3_S.gguf) |
i1 - IQ3_S |
3.6 |
Q3_K*よりも良い |
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - IQ3_M.gguf) |
i1 - IQ3_M |
3.7 |
|
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - Q3_K_M.gguf) |
i1 - Q3_K_M |
3.9 |
IQ3_Sの方が良い可能性があります |
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - Q3_K_L.gguf) |
i1 - Q3_K_L |
4.2 |
IQ3_Mの方が良い可能性があります |
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - IQ4_XS.gguf) |
i1 - IQ4_XS |
4.3 |
|
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - IQ4_NL.gguf) |
i1 - IQ4_NL |
4.5 |
IQ4_XSを選ぶ方が良い |
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - Q4_0.gguf) |
i1 - Q4_0 |
4.5 |
高速だが低品質 |
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - Q4_K_S.gguf) |
i1 - Q4_K_S |
4.6 |
サイズ/速度/品質のバランスが良い |
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - Q4_K_M.gguf) |
i1 - Q4_K_M |
4.8 |
高速でおすすめ |
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - Q4_1.gguf) |
i1 - Q4_1 |
5.0 |
|
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - Q5_K_S.gguf) |
i1 - Q5_K_S |
5.4 |
|
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - Q5_K_M.gguf) |
i1 - Q5_K_M |
5.5 |
|
[GGUF](https://huggingface.co/mradermacher/LiberalMind_v1.5 - i1 - GGUF/resolve/main/LiberalMind_v1.5.i1 - Q6_K.gguf) |
i1 - Q6_K |
6.4 |
静的Q6_Kに近い |
ikawrakowによる低品質量子化タイプの比較グラフ(値が低いほど良い):

Artefact2によるこの問題に関する考察:
https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
よくある質問 / モデルリクエスト
質問に対する回答や、他のモデルの量子化を依頼する場合は、https://huggingface.co/mradermacher/model_requests を参照してください。
謝辞
私の会社 nethype GmbH には、サーバーの使用を許可し、ワークステーションのアップグレードを提供してくれたことに感謝します。これにより、私は余暇時間にこの作業を行うことができました。また、@nicoboss には、プライベートなスーパーコンピューターへのアクセスを許可してくれたことに感謝します。これにより、私は通常よりも多くのimatrix量子化モデルを、はるかに高い品質で提供することができました。
📄 ライセンス
このプロジェクトは、apache - 2.0ライセンスの下で提供されています。