🚀 DrMedra4B-GGUF
このプロジェクトは、医療AI分野での診断や要約などのタスクに役立つモデルの量子化バージョンを提供します。
🚀 クイックスタート
このセクションでは、DrMedra4B-GGUFモデルの基本的な情報と使用方法について説明します。
属性 |
详情 |
ベースモデル |
drwlf/DrMedra4B |
データセット |
nicoboss/medra-medical |
言語 |
en, ro |
ライブラリ名 |
transformers |
ライセンス |
apache - 2.0 |
量子化担当者 |
mradermacher |
タグ |
medical - ai, clinical - reasoning, summarization, diagnosis, medgemma, fine - tuned |
📚 ドキュメント
概要
https://huggingface.co/drwlf/DrMedra4B のweighted/imatrix量子化バージョンです。静的量子化データは https://huggingface.co/mradermacher/DrMedra4B - GGUF で入手できます。
使用方法
GGUFファイルの使い方がわからない場合は、[TheBlokeのREADME](https://huggingface.co/TheBloke/KafkaLM - 70B - German - V0.1 - GGUF) を参照してください。ここには、マルチパートファイルの結合方法などの詳細が記載されています。
提供される量子化データ
(サイズ順に並べられており、必ずしも品質順ではありません。IQ量子化は同サイズの非IQ量子化よりも優れていることが多いです)
リンク |
タイプ |
サイズ(GB) |
備考 |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ1_S.gguf) |
i1 - IQ1_S |
1.2 |
非常に必要な場合 |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ1_M.gguf) |
i1 - IQ1_M |
1.3 |
ほとんど必要な場合 |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ2_XXS.gguf) |
i1 - IQ2_XXS |
1.4 |
|
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ2_XS.gguf) |
i1 - IQ2_XS |
1.5 |
|
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ2_S.gguf) |
i1 - IQ2_S |
1.5 |
|
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ2_M.gguf) |
i1 - IQ2_M |
1.6 |
|
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q2_K_S.gguf) |
i1 - Q2_K_S |
1.7 |
非常に低品質 |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ3_XXS.gguf) |
i1 - IQ3_XXS |
1.8 |
低品質 |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q2_K.gguf) |
i1 - Q2_K |
1.8 |
IQ3_XXSの方が良い可能性があります |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ3_XS.gguf) |
i1 - IQ3_XS |
2.0 |
|
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ3_S.gguf) |
i1 - IQ3_S |
2.0 |
Q3_K*より良い |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q3_K_S.gguf) |
i1 - Q3_K_S |
2.0 |
IQ3_XSの方が良い可能性があります |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ3_M.gguf) |
i1 - IQ3_M |
2.1 |
|
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q3_K_M.gguf) |
i1 - Q3_K_M |
2.2 |
IQ3_Sの方が良い可能性があります |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q3_K_L.gguf) |
i1 - Q3_K_L |
2.3 |
IQ3_Mの方が良い可能性があります |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ4_XS.gguf) |
i1 - IQ4_XS |
2.4 |
|
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - IQ4_NL.gguf) |
i1 - IQ4_NL |
2.5 |
IQ4_XSを選ぶことをおすすめします |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q4_0.gguf) |
i1 - Q4_0 |
2.5 |
高速で低品質 |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q4_K_S.gguf) |
i1 - Q4_K_S |
2.5 |
サイズ/速度/品質のバランスが良い |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q4_K_M.gguf) |
i1 - Q4_K_M |
2.6 |
高速でおすすめ |
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q4_1.gguf) |
i1 - Q4_1 |
2.7 |
|
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q5_K_S.gguf) |
i1 - Q5_K_S |
2.9 |
|
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q5_K_M.gguf) |
i1 - Q5_K_M |
2.9 |
|
[GGUF](https://huggingface.co/mradermacher/DrMedra4B - i1 - GGUF/resolve/main/DrMedra4B.i1 - Q6_K.gguf) |
i1 - Q6_K |
3.3 |
実質的に静的Q6_Kと同じ |
ikawrakowによる低品質量子化タイプの比較グラフです(値が低いほど良い):

Artefact2によるこの問題に関する考え方はこちらです:
https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
FAQ / モデルリクエスト
質問に対する回答や他のモデルの量子化を希望する場合は、https://huggingface.co/mradermacher/model_requests を参照してください。
📄 ライセンス
このプロジェクトは、apache - 2.0ライセンスの下で提供されています。
ありがとう
私の会社 nethype GmbH には、サーバーの使用を許可し、ワークステーションのアップグレードを提供してくれたことに感謝します。これにより、私は余暇時間にこの作業を行うことができました。また、@nicoboss には、プライベートなスーパーコンピューターへのアクセスを許可してくれたことに感謝します。これにより、私は通常よりもはるかに高品質の多くのimatrix量子化データを提供することができました。