Q

Qwq 32B GGUF

Mungertによって開発
IQ-DynamicGate技術を採用した超低ビット量子化(1-2ビット)大規模言語モデル、多言語テキスト生成タスクをサポート
ダウンロード数 5,770
リリース時間 : 4/4/2025

モデル概要

Qwen2.5-32Bの量子化バージョン、動的精度割り当て技術により超低ビット量子化(1-2ビット)を実現、メモリ効率を維持しながらモデル精度を向上

モデル特徴

IQ-DynamicGate量子化技術
階層化戦略による動的精度割り当て、上位25%と下位25%の層にIQ4_XS、中間50%の層にIQ2_XXS/IQ3_Sを使用、誤差伝播を大幅に低減
重要コンポーネント保護
埋め込み層と出力層にQ5_K量子化を適用、標準1-2ビット量子化比で38%の誤差伝播低減
多フォーマット対応
BF16、F16及び各種量子化フォーマット(Q4_K、Q6_K、Q8_0等)を提供、異なるハードウェア要件に対応

モデル能力

多言語テキスト生成
チャット対話
低リソース環境推論

使用事例

リソース制約環境展開
エッジデバイステキスト生成
メモリ制限のあるエッジデバイスでチャットボットを実行
IQ1_M量子化バージョンで困惑度43.9%低減
研究応用
超低ビット量子化研究
1-2ビット量子化の限界性能を探索
IQ2_S量子化で困惑度36.9%低減
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase