🚀 STEVE-R1-7B-SFT モデル
このモデルはロボット工学、エージェント、コンピュータビジョン、大規模言語モデル(LLM)などの分野に適用可能なモデルです。重み付き/imatrixの量子化バージョンが提供されており、静的量子化モデルも利用可能です。
🚀 クイックスタート
このセクションでは、STEVE-R1-7B-SFTモデルの基本的な情報と使用方法について説明します。
モデル情報
属性 |
详情 |
ベースモデル |
Fanbin/STEVE-R1-7B-SFT |
言語 |
英語 |
ライブラリ名 |
transformers |
ライセンス |
apache - 2.0 |
量子化担当者 |
mradermacher |
タグ |
ロボット工学、エージェント、コンピュータビジョン、LLM |
概要
https://huggingface.co/Fanbin/STEVE-R1-7B-SFT のweighted/imatrix量子化モデルです。静的量子化モデルは https://huggingface.co/mradermacher/STEVE-R1-7B-SFT-GGUF で入手可能です。
✨ 主な機能
- ロボット工学、エージェント、コンピュータビジョン、LLMなどの分野に適用可能
- 重み付き/imatrix量子化モデルと静的量子化モデルが提供される
📦 インストール
GGUFファイルの使用方法がわからない場合は、TheBlokeのREADME を参照してください。ここには、マルチパートファイルの結合方法も含まれています。
📚 ドキュメント
提供される量子化モデル
(サイズ順に並べられており、必ずしも品質順ではありません。IQ量子化モデルは同サイズの非IQ量子化モデルよりも優れていることが多いです)
リンク |
タイプ |
サイズ/GB |
備考 |
GGUF |
i1 - IQ1_S |
2.0 |
非常に必要な場合 |
GGUF |
i1 - IQ1_M |
2.1 |
多くの場合必要 |
GGUF |
i1 - IQ2_XXS |
2.4 |
|
GGUF |
i1 - IQ2_XS |
2.6 |
|
GGUF |
i1 - IQ2_S |
2.7 |
|
GGUF |
i1 - IQ2_M |
2.9 |
|
GGUF |
i1 - Q2_K_S |
2.9 |
低品質 |
GGUF |
i1 - Q2_K |
3.1 |
IQ3_XXSの方が良い可能性があります |
GGUF |
i1 - IQ3_XXS |
3.2 |
低品質 |
GGUF |
i1 - IQ3_XS |
3.4 |
|
GGUF |
i1 - Q3_K_S |
3.6 |
IQ3_XSの方が良い可能性があります |
GGUF |
i1 - IQ3_S |
3.6 |
Q3_K*より良い |
GGUF |
i1 - IQ3_M |
3.7 |
|
GGUF |
i1 - Q3_K_M |
3.9 |
IQ3_Sの方が良い可能性があります |
GGUF |
i1 - Q3_K_L |
4.2 |
IQ3_Mの方が良い可能性があります |
GGUF |
i1 - IQ4_XS |
4.3 |
|
GGUF |
i1 - IQ4_NL |
4.5 |
IQ4_XSを選ぶことをおすすめします |
GGUF |
i1 - Q4_0 |
4.5 |
高速だが低品質 |
GGUF |
i1 - Q4_K_S |
4.6 |
サイズ/速度/品質のバランスが良い |
GGUF |
i1 - Q4_K_M |
4.8 |
高速で推奨 |
GGUF |
i1 - Q4_1 |
5.0 |
|
GGUF |
i1 - Q5_K_S |
5.4 |
|
GGUF |
i1 - Q5_K_M |
5.5 |
|
GGUF |
i1 - Q6_K |
6.4 |
静的Q6_Kに近い |
ikawrakowによる低品質量子化タイプの比較グラフ:

Artefact2によるこの問題に関する考察:
https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
よくある質問とモデルリクエスト
質問に対する回答や他のモデルの量子化リクエストについては、https://huggingface.co/mradermacher/model_requests を参照してください。
📄 ライセンス
このモデルはapache - 2.0ライセンスの下で提供されています。
謝辞
私の会社であるnethype GmbHには、サーバの使用を許可し、ワークステーションのアップグレードを提供してくれたことに感謝します。また、@nicobossには、私が彼のプライベートスーパーコンピュータにアクセスできるようにしてくれたことに感謝します。これにより、私はより多くのimatrix量子化モデルを、より高品質で提供することができました。