🚀 UniReason-Qwen3-14B-RL 量子化モデル
このプロジェクトでは、ReasoningTransferability/UniReason-Qwen3-14B-RL
モデルの量子化バージョンを提供しています。これは、テキスト生成や数学的推論などのタスクに使用でき、様々なシナリオでのモデルの可用性と性能を向上させます。
🚀 クイックスタート
GGUF ファイルの使用方法がわからない場合は、TheBloke の README を参照してください。複数の部分ファイルを結合する方法など、詳細な情報が記載されています。
✨ 主な機能
- 多領域対応:テキスト生成、数学的推論など、複数の領域に適用可能です。
- 複数の量子化タイプ:さまざまなサイズと品質の量子化バージョンを提供しています。
📚 ドキュメント
モデル情報
属性 |
詳細 |
arxiv |
2507.00432 |
ベースモデル |
ReasoningTransferability/UniReason-Qwen3-14B-RL |
データセット |
math、reasoning |
言語 |
英語 |
ライブラリ名 |
transformers |
ライセンス |
apache-2.0 |
量子化者 |
mradermacher |
タグ |
text-generation、math-reasoning、transferability、RL - GRPO、research - paper、qwen |
モデルについて
このプロジェクトでは、https://huggingface.co/ReasoningTransferability/UniReason-Qwen3-14B-RL の重み付け/imatrix 量子化バージョンを提供しています。静的量子化ファイルは、https://huggingface.co/mradermacher/UniReason-Qwen3-14B-RL-GGUF で入手できます。
提供される量子化バージョン
(サイズで並べられており、必ずしも品質を表すわけではありません。IQ 量子化は、同じサイズの非 IQ 量子化よりも一般的に優れています)
リンク |
タイプ |
サイズ/GB |
備考 |
GGUF |
i1-IQ1_S |
3.7 |
リソースが限られた場合に適しています |
GGUF |
i1-IQ1_M |
3.9 |
ほとんどの場合、リソースが限られた場合に使用されます |
GGUF |
i1-IQ2_XXS |
4.4 |
|
GGUF |
i1-IQ2_XS |
4.8 |
|
GGUF |
i1-IQ2_S |
5.1 |
|
GGUF |
i1-IQ2_M |
5.4 |
|
GGUF |
i1-Q2_K_S |
5.5 |
品質が非常に低い |
GGUF |
i1-Q2_K |
5.9 |
IQ3_XXS の方が良いかもしれません |
GGUF |
i1-IQ3_XXS |
6.0 |
品質が低い |
GGUF |
i1-IQ3_XS |
6.5 |
|
GGUF |
i1-Q3_K_S |
6.8 |
IQ3_XS の方が良いかもしれません |
GGUF |
i1-IQ3_S |
6.8 |
Q3_K* より優れています |
GGUF |
i1-IQ3_M |
7.0 |
|
GGUF |
i1-Q3_K_M |
7.4 |
IQ3_S の方が良いかもしれません |
GGUF |
i1-Q3_K_L |
8.0 |
IQ3_M の方が良いかもしれません |
GGUF |
i1-IQ4_XS |
8.2 |
|
GGUF |
i1-IQ4_NL |
8.6 |
IQ4_XS を優先してください |
GGUF |
i1-Q4_0 |
8.6 |
速度は速いが、品質が低い |
GGUF |
i1-Q4_K_S |
8.7 |
サイズ/速度/品質が最適 |
GGUF |
i1-Q4_K_M |
9.1 |
速度が速く、おすすめです |
GGUF |
i1-Q4_1 |
9.5 |
|
GGUF |
i1-Q5_K_S |
10.4 |
|
GGUF |
i1-Q5_K_M |
10.6 |
|
GGUF |
i1-Q6_K |
12.2 |
実際には静的 Q6_K に類似しています |
以下は、ikawrakow が提供した、いくつかの低品質量子化タイプを比較する便利なグラフです(数値が低いほど良い):

また、Artefact2 のこの問題に対する意見は、https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9 を参照してください。
よくある質問とモデルリクエスト
関連する質問がある場合、または他のモデルの量子化を希望する場合は、https://huggingface.co/mradermacher/model_requests を確認してください。
📄 ライセンス
このプロジェクトは apache-2.0
ライセンスの下で提供されています。
🙏 謝辞
私の会社 nethype GmbH には、サーバーの使用を許可し、ワークステーションをアップグレードしてくれたことに感謝します。これにより、私は余暇時間にこの作業を完了することができました。また、@nicoboss には、彼のプライベートなスーパーコンピューターを使用させてくれたことに感謝します。これにより、より多くの高品質な imatrix 量子化バージョンを提供することができました。