Q

Qwq 32B INT8 W8A8

ospatchによって開発
QWQ-32BのINT8量子化バージョン、重みと活性化のビット数を減らして性能を最適化
ダウンロード数 590
リリース時間 : 3/13/2025

モデル概要

QWQ-32BのINT8量子化バージョン、GPUメモリ要件と計算スループットを最適化、テキスト生成タスクに適応

モデル特徴

INT8量子化
重みと活性化ともにINT8量子化を採用、GPUメモリ要件とディスク容量を削減
効率的な計算
量子化により行列乗算の計算スループットを約2倍向上
vLLM互換
vLLM Dockerイメージによるデプロイをサポート、OpenAI互換APIを提供

モデル能力

テキスト生成

使用事例

自然言語処理
テキスト生成
一貫性のあるテキストコンテンツの生成に使用
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase