🚀 Clinician-Note-2.0a の量子化モデル
このプロジェクトは、臨床ノート生成に特化した Clinician-Note-2.0a
モデルの量子化バージョンを提供します。量子化により、モデルのメモリ使用量を削減し、推論速度を向上させることができます。
🚀 クイックスタート
この量子化モデルを使用するには、まずGGUFファイルの使い方を理解する必要があります。詳細については、TheBlokeのREADME を参照してください。
✨ 主な機能
- テキスト生成:臨床ノートの自動生成が可能です。
- 要約:長文の臨床ノートを要約することができます。
- 医療分野対応:医療関連のテキスト処理に特化しています。
📦 インストール
このモデルは、Hugging Face Hub から直接ダウンロードすることができます。具体的なインストール手順は、使用する環境によって異なります。
📚 ドキュメント
概要
このモデルは、ClinicianFOCUS/Clinician-Note-2.0a の量子化バージョンです。量子化により、モデルのメモリ使用量を削減し、推論速度を向上させることができます。
静的量子化モデルは、こちら から入手できます。
使用方法
GGUFファイルの使い方がわからない場合は、TheBlokeのREADME を参照してください。このドキュメントには、GGUFファイルの使い方や、複数のパートに分割されたファイルの結合方法が記載されています。
提供される量子化モデル
以下は、提供される量子化モデルの一覧です。サイズ順に並んでいますが、必ずしも品質の順ではありません。IQ量子化モデルは、同じサイズの非IQ量子化モデルよりも優れていることが多いです。
リンク |
タイプ |
サイズ (GB) |
備考 |
GGUF |
i1-IQ1_S |
1.2 |
非常に必要な場合に使用 |
GGUF |
i1-IQ1_M |
1.2 |
ほとんどの場合必要ない |
GGUF |
i1-IQ2_XXS |
1.3 |
|
GGUF |
i1-IQ2_XS |
1.5 |
|
GGUF |
i1-IQ2_S |
1.5 |
|
GGUF |
i1-IQ2_M |
1.6 |
|
GGUF |
i1-Q2_K_S |
1.7 |
非常に低品質 |
GGUF |
i1-Q2_K |
1.8 |
IQ3_XXS の方が良いかも |
GGUF |
i1-IQ3_XXS |
1.8 |
低品質 |
GGUF |
i1-IQ3_XS |
1.9 |
|
GGUF |
i1-Q3_K_S |
2.0 |
IQ3_XS の方が良いかも |
GGUF |
i1-IQ3_S |
2.0 |
Q3_K* より良い |
GGUF |
i1-IQ3_M |
2.1 |
|
GGUF |
i1-Q3_K_M |
2.2 |
IQ3_S の方が良いかも |
GGUF |
i1-Q3_K_L |
2.3 |
IQ3_M の方が良いかも |
GGUF |
i1-IQ4_XS |
2.4 |
|
GGUF |
i1-Q4_0 |
2.5 |
高速だが低品質 |
GGUF |
i1-IQ4_NL |
2.5 |
IQ4_XS の方が良い |
GGUF |
i1-Q4_K_S |
2.5 |
サイズ/速度/品質のバランスが良い |
GGUF |
i1-Q4_K_M |
2.6 |
高速でおすすめ |
GGUF |
i1-Q4_1 |
2.7 |
|
GGUF |
i1-Q5_K_S |
2.9 |
|
GGUF |
i1-Q5_K_M |
3.0 |
|
GGUF |
i1-Q6_K |
3.4 |
静的 Q6_K に近い品質 |
以下は、ikawrakowによる低品質量子化タイプの比較グラフです(値が低いほど良い)。

また、Artefact2によるこの問題に関する考察は、こちら で確認できます。
FAQ / モデルリクエスト
よくある質問への回答や、他のモデルの量子化リクエストについては、こちら を参照してください。
📄 ライセンス
このモデルは、AGPL-3.0ライセンスの下で提供されています。
謝辞
この作業を可能にするために、私の会社である nethype GmbH にサーバーの使用を許可していただき、ワークステーションのアップグレードを提供していただいたことに感謝します。また、@nicoboss には、彼のプライベートスーパーコンピューターへのアクセスを許可していただき、通常よりも高品質の多くのimatrix量子化を提供することができたことに感謝します。