Qwen3 32B Quantized.w4a16
Q
Qwen3 32B Quantized.w4a16
RedHatAIによって開発
Qwen3-32BのINT4量子化バージョン、重み量子化によりディスクとGPUメモリ要件を75%削減、高性能を維持
ダウンロード数 2,213
リリース時間 : 5/5/2025
モデル概要
Qwen3-32Bベースの量子化モデル、テキスト生成、関数呼び出し、多言語タスクに適し、効率的な推論をサポート
モデル特徴
効率的な量子化
INT4重み量子化を採用、ディスクとGPUメモリ要件を75%削減
高性能維持
量子化後モデルは複数のベンチマークテストで99%以上の元の性能を維持
多言語サポート
複数言語の命令追従と翻訳タスクをサポート
効率的な推論
最適化後、vLLMなどの効率的な推論フレームワーク上での展開に適している
モデル能力
テキスト生成
関数呼び出し
多言語命令追従
翻訳
ドメインファインチューニング
使用事例
汎用推論
知識質問応答
様々な知識問題に回答
MMLUテストで80.36点を達成
数学的推論
数学問題を解決
GSM-8Kテストで85.97点を達成
専門的応用
ドメインエキスパート
ファインチューニングにより特定分野の専門家になる
コード生成
プログラミングコードを生成
🚀 Qwen3-32B-quantized.w4a16
このモデルは、Qwen3-32BをINT4に量子化したもので、ディスクサイズとGPUメモリ要件を約75%削減し、効率的なデプロイが可能です。推論や機能呼び出しなど様々なタスクに対応しています。
🚀 クイックスタート
このモデルは、vLLM バックエンドを使用して効率的にデプロイできます。以下は使用例です。
from vllm import LLM, SamplingParams
from transformers import AutoTokenizer
model_id = "RedHatAI/Qwen3-32B-quantized.w4a16"
number_gpus = 1
sampling_params = SamplingParams(temperature=0.6, top_p=0.95, top_k=20, min_p=0, max_tokens=256)
messages = [
{"role": "user", "content": prompt}
]
tokenizer = AutoTokenizer.from_pretrained(model_id)
messages = [{"role": "user", "content": "Give me a short introduction to large language model."}]
prompts = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False)
llm = LLM(model=model_id, tensor_parallel_size=number_gpus)
outputs = llm.generate(prompts, sampling_params)
generated_text = outputs[0].outputs[0].text
print(generated_text)
vLLMはOpenAI互換のサービングもサポートしています。詳細は ドキュメント を参照してください。
✨ 主な機能
- モデルアーキテクチャ: Qwen3ForCausalLM
- 入力: テキスト
- 出力: テキスト
- モデル最適化:
- 重み量子化: INT4
- 想定される使用ケース:
- 推論
- 機能呼び出し
- 微調整による専門家知識の活用
- 多言語命令の実行
- 翻訳
- 適用範囲外: 適用される法律や規制(貿易コンプライアンス法律を含む)に違反する方法での使用
- リリース日: 2025年5月5日
- バージョン: 1.0
- モデル開発者: RedHat (Neural Magic)
モデル最適化
このモデルは、Qwen3-32B の重みをINT4データ型に量子化することで得られました。この最適化により、パラメータごとのビット数が16から4に減少し、ディスクサイズとGPUメモリ要件が約75%削減されます。
トランスフォーマーブロック内の線形演算子の重みのみが量子化されます。重みはグループサイズ128の対称的なグループごとのスキームを使用して量子化されます。量子化には GPTQ アルゴリズムが適用され、llm-compressor ライブラリで実装されています。
📦 インストール
インストールに関する具体的なコマンドは原ドキュメントに記載されていないため、このセクションを省略します。
💻 使用例
基本的な使用法
from vllm import LLM, SamplingParams
from transformers import AutoTokenizer
model_id = "RedHatAI/Qwen3-32B-quantized.w4a16"
number_gpus = 1
sampling_params = SamplingParams(temperature=0.6, top_p=0.95, top_k=20, min_p=0, max_tokens=256)
messages = [
{"role": "user", "content": prompt}
]
tokenizer = AutoTokenizer.from_pretrained(model_id)
messages = [{"role": "user", "content": "Give me a short introduction to large language model."}]
prompts = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False)
llm = LLM(model=model_id, tensor_parallel_size=number_gpus)
outputs = llm.generate(prompts, sampling_params)
generated_text = outputs[0].outputs[0].text
print(generated_text)
高度な使用法
高度な使用法に関する具体的なコード例は原ドキュメントに記載されていないため、このサブセクションを省略します。
📚 ドキュメント
作成
作成詳細
このモデルは [llm-compressor](https://github.com/vllm-project/llm-compressor) を使用して、以下のコードスニペットを実行することで作成されました。from llmcompressor.modifiers.quantization import GPTQModifier
from llmcompressor.transformers import oneshot
from transformers import AutoModelForCausalLM, AutoTokenizer
# Load model
model_stub = "Qwen/Qwen3-32B"
model_name = model_stub.split("/")[-1]
num_samples = 1024
max_seq_len = 8192
model = AutoModelForCausalLM.from_pretrained(model_stub)
tokenizer = AutoTokenizer.from_pretrained(model_stub)
def preprocess_fn(example):
return {"text": tokenizer.apply_chat_template(example["messages"], add_generation_prompt=False, tokenize=False)}
ds = load_dataset("neuralmagic/LLM_compression_calibration", split="train")
ds = ds.map(preprocess_fn)
# Configure the quantization algorithm and scheme
recipe = GPTQModifier(
ignore=["lm_head"],
sequential_targets=["Qwen3DecoderLayer"],
targets="Linear",
scheme="W4A16",
dampening_frac=0.1,
)
# Apply quantization
oneshot(
model=model,
dataset=ds,
recipe=recipe,
max_seq_length=max_seq_len,
num_calibration_samples=num_samples,
)
# Save to disk in compressed-tensors format
save_path = model_name + "-quantized.w4a16"
model.save_pretrained(save_path)
tokenizer.save_pretrained(save_path)
print(f"Model and tokenizer saved to: {save_path}")
評価
このモデルは、lm-evaluation-harness を使用してOpenLLMリーダーボードタスク(バージョン1と2)で評価され、lighteval を使用して推論タスクで評価されました。すべての評価に vLLM が使用されました。
評価詳細
lm-evaluation-harness
lm_eval \
--model vllm \
--model_args pretrained="RedHatAI/Qwen3-32B-quantized.w4a16",dtype=auto,gpu_memory_utilization=0.5,max_model_len=8192,enable_chunk_prefill=True,tensor_parallel_size=1 \
--tasks openllm \
--apply_chat_template\
--fewshot_as_multiturn \
--batch_size auto
lm_eval \
--model vllm \
--model_args pretrained="RedHatAI/Qwen3-32B-quantized.w4a16",dtype=auto,gpu_memory_utilization=0.5,max_model_len=8192,enable_chunk_prefill=True,tensor_parallel_size=1 \
--tasks mgsm \
--apply_chat_template\
--batch_size auto
lm_eval \
--model vllm \
--model_args pretrained="RedHatAI/Qwen3-32B-quantized.w4a16",dtype=auto,gpu_memory_utilization=0.5,max_model_len=16384,enable_chunk_prefill=True,tensor_parallel_size=1 \
--tasks leaderboard \
--apply_chat_template\
--fewshot_as_multiturn \
--batch_size auto
lighteval
lighteval_model_arguments.yaml
model_parameters:
model_name: RedHatAI/Qwen3-32B-quantized.w4a16
dtype: auto
gpu_memory_utilization: 0.9
max_model_length: 40960
generation_parameters:
temperature: 0.6
top_k: 20
min_p: 0.0
top_p: 0.95
max_new_tokens: 32768
lighteval vllm \
--model_args lighteval_model_arguments.yaml \
--tasks lighteval|aime24|0|0 \
--use_chat_template = true
lighteval vllm \
--model_args lighteval_model_arguments.yaml \
--tasks lighteval|aime25|0|0 \
--use_chat_template = true
lighteval vllm \
--model_args lighteval_model_arguments.yaml \
--tasks lighteval|math_500|0|0 \
--use_chat_template = true
lighteval vllm \
--model_args lighteval_model_arguments.yaml \
--tasks lighteval|gpqa:diamond|0|0 \
--use_chat_template = true
lighteval vllm \
--model_args lighteval_model_arguments.yaml \
--tasks extended|lcb:codegeneration \
--use_chat_template = true
精度
カテゴリ | ベンチマーク | Qwen3-32B | Qwen3-32B-quantized.w4a16 (このモデル) |
回復率 |
---|---|---|---|---|
OpenLLM v1 | MMLU (5-shot) | 80.96 | 80.36 | 99.3% |
ARC Challenge (25-shot) | 69.03 | 68.69 | 99.5% | |
GSM-8K (5-shot, strict-match) | 87.64 | 85.97 | 98.1% | |
Hellaswag (10-shot) | 71.10 | 71.18 | 100.1% | |
Winogrande (5-shot) | 69.77 | 70.90 | 100.5% | |
TruthfulQA (0-shot, mc2) | 58.63 | 58.86 | 100.4% | |
平均 | 72.86 | 72.52 | 99.6% | |
OpenLLM v2 | MMLU-Pro (5-shot) | 54.24 | 52.63 | 97.03% |
IFEval (0-shot) | 86.23 | 85.53 | 99.2% | |
BBH (3-shot) | 44.29 | 41.07 | 92.7% | |
Math-lvl-5 (4-shot) | 54.61 | 55.38 | 101.4% | |
GPQA (0-shot) | 5.53 | 4.59 | --- | |
MuSR (0-shot) | 7.85 | 8.25 | --- | |
平均 | 42.13 | 41.24 | 97.9% | |
多言語 | MGSM (0-shot) | 32.57 | 33.77 | 103.7% |
推論 (生成) |
AIME 2024 | 79.37 | 77.29 | 97.4% |
AIME 2025 | 71.77 | 64.27 | 89.6% | |
GPQA diamond | 66.67 | 66.67 | 100.0% | |
Math-lvl-5 | 96.20 | 97.20 | 101.0% | |
LiveCodeBench | 62.45 | 59.63 | 95.5% |
📄 ライセンス
このプロジェクトは Apache 2.0 ライセンスの下で提供されています。
Phi 2 GGUF
その他
Phi-2はマイクロソフトが開発した小型ながら強力な言語モデルで、27億のパラメータを持ち、効率的な推論と高品質なテキスト生成に特化しています。
大規模言語モデル 複数言語対応
P
TheBloke
41.5M
205
Roberta Large
MIT
マスク言語モデリングの目標で事前学習された大型英語言語モデルで、改良されたBERTの学習方法を採用しています。
大規模言語モデル 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERTはBERT基礎モデルの蒸留バージョンで、同等の性能を維持しながら、より軽量で高効率です。シーケンス分類、タグ分類などの自然言語処理タスクに適しています。
大規模言語モデル 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instructは多言語大規模言語モデルで、多言語対話ユースケースに最適化されており、一般的な業界ベンチマークで優れた性能を発揮します。
大規模言語モデル 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM - RoBERTaは、100言語の2.5TBのフィルタリングされたCommonCrawlデータを使って事前学習された多言語モデルで、マスク言語モデリングの目標で学習されています。
大規模言語モデル 複数言語対応
X
FacebookAI
9.6M
664
Roberta Base
MIT
Transformerアーキテクチャに基づく英語の事前学習モデルで、マスク言語モデリングの目標を通じて大量のテキストでトレーニングされ、テキスト特徴抽出と下流タスクの微調整をサポートします。
大規模言語モデル 英語
R
FacebookAI
9.3M
488
Opt 125m
その他
OPTはMeta AIが公開したオープンプリトレーニングトランスフォーマー言語モデルスイートで、パラメータ数は1.25億から1750億まであり、GPT-3シリーズの性能に対抗することを目指しつつ、大規模言語モデルのオープンな研究を促進するものです。
大規模言語モデル 英語
O
facebook
6.3M
198
1
transformersライブラリに基づく事前学習モデルで、様々なNLPタスクに適用可能
大規模言語モデル
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1はMetaが発表した多言語大規模言語モデルシリーズで、8B、70B、405Bのパラメータ規模を持ち、8種類の言語とコード生成をサポートし、多言語対話シーンを最適化しています。
大規模言語モデル
Transformers 複数言語対応

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5ベーシック版はGoogleによって開発されたテキスト-to-テキスト変換Transformerモデルで、パラメータ規模は2.2億で、多言語NLPタスクをサポートしています。
大規模言語モデル 複数言語対応
T
google-t5
5.4M
702
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98