Q

Qwq 32B FP8 Dynamic

RedHatAIによって開発
QwQ-32BのFP8量子化バージョン、動的量子化技術により50%のストレージとメモリ要件を削減、99.75%の元のモデル精度を維持
ダウンロード数 3,107
リリース時間 : 3/5/2025

モデル概要

Qwen/QwQ-32Bを基にした量子化最適化バージョン、FP8動的量子化技術で重みと活性化値を最適化、効率的な推論展開に適応

モデル特徴

FP8動的量子化
重みと活性化値にFP8量子化を採用、ストレージとメモリ要件を約50%削減
高精度維持
複数のベンチマークテストで99.75%の元のモデル精度を維持
vLLM最適化サポート
vLLM推論エンジン向けに最適化、効率的な展開をサポート

モデル能力

テキスト生成
対話システム
コード生成
数学的推論

使用事例

インテリジェント対話
ロールプレイング対話
特定のキャラクタースタイルの対話生成をサポート
例では海賊スタイルの回答能力を示している
数学的推論
数学問題解決
複雑な数学問題を解決
MATH-500テストで97.44%の精度を達成
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase