Qwen3 14B FP8 Dynamic
モデル概要
モデル特徴
モデル能力
使用事例
🚀 Qwen3-14B-FP8-dynamic
このモデルは、Qwen3-14B の活性化関数と重みを FP8 データ型に量子化することで得られたものです。この最適化により、GPU メモリの使用量を削減し、行列乗算の計算スループットを向上させることができます。
🚀 クイックスタート
このモデルは、vLLM バックエンドを使用して効率的にデプロイできます。以下に例を示します。
from vllm import LLM, SamplingParams
from transformers import AutoTokenizer
model_id = "RedHatAI/Qwen3-14B-FP8-dynamic"
number_gpus = 1
sampling_params = SamplingParams(temperature=0.6, top_p=0.95, top_k=20, min_p=0, max_tokens=256)
messages = [
{"role": "user", "content": prompt}
]
tokenizer = AutoTokenizer.from_pretrained(model_id)
messages = [{"role": "user", "content": "Give me a short introduction to large language model."}]
prompts = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False)
llm = LLM(model=model_id, tensor_parallel_size=number_gpus)
outputs = llm.generate(prompts, sampling_params)
generated_text = outputs[0].outputs[0].text
print(generated_text)
vLLM は、OpenAI 互換のサービングもサポートしています。詳細については、ドキュメント を参照してください。
✨ 主な機能
モデル概要
- モデルアーキテクチャ: Qwen3ForCausalLM
- 入力: テキスト
- 出力: テキスト
- モデル最適化:
- 活性化関数の量子化: FP8
- 重みの量子化: FP8
- 想定される使用ケース:
- 推論。
- 関数呼び出し。
- 微調整による専門家知識の注入。
- 多言語命令の実行。
- 翻訳。
- 対象外の使用: 適用される法律や規制(貿易コンプライアンス法律を含む)に違反する方法での使用。
- リリース日: 2025年05月02日
- バージョン: 1.0
- モデル開発者: RedHat (Neural Magic)
モデル最適化
このモデルは、Qwen3-14B の活性化関数と重みを FP8 データ型に量子化することで得られました。この最適化により、重みと活性化関数を表すビット数が16から8に減少し、GPU メモリの使用量が約50%削減され、行列乗算の計算スループットが約2倍に向上します。重みの量子化により、ディスク容量の要件も約50%削減されます。
トランスフォーマーブロック内の線形演算子の重みと活性化関数のみが量子化されます。重みは、対称的な静的なチャネルごとのスキームで量子化され、活性化関数は、対称的な動的なトークンごとのスキームで量子化されます。量子化には、llm-compressor ライブラリが使用されています。
📦 インストール
このモデルを使用するには、必要なライブラリをインストールする必要があります。以下のコマンドを実行してください。
pip install vllm transformers
💻 使用例
基本的な使用法
from vllm import LLM, SamplingParams
from transformers import AutoTokenizer
model_id = "RedHatAI/Qwen3-14B-FP8-dynamic"
number_gpus = 1
sampling_params = SamplingParams(temperature=0.6, top_p=0.95, top_k=20, min_p=0, max_tokens=256)
messages = [
{"role": "user", "content": prompt}
]
tokenizer = AutoTokenizer.from_pretrained(model_id)
messages = [{"role": "user", "content": "Give me a short introduction to large language model."}]
prompts = tokenizer.apply_chat_template(messages, add_generation_prompt=True, tokenize=False)
llm = LLM(model=model_id, tensor_parallel_size=number_gpus)
outputs = llm.generate(prompts, sampling_params)
generated_text = outputs[0].outputs[0].text
print(generated_text)
高度な使用法
# 高度な使用法の説明
# ここでは、モデルの微調整や、特定のタスクに対する最適化などの高度な使用法を説明することができます。
📚 ドキュメント
作成方法
作成詳細
このモデルは、[llm-compressor](https://github.com/vllm-project/llm-compressor) を使用して、以下のコードスニペットを実行することで作成されました。from llmcompressor.modifiers.quantization import QuantizationModifier
from llmcompressor.transformers import oneshot
from transformers import AutoModelForCausalLM, AutoTokenizer
# モデルの読み込み
model_stub = "Qwen/Qwen3-14B"
model_name = model_stub.split("/")[-1]
model = AutoModelForCausalLM.from_pretrained(model_stub)
tokenizer = AutoTokenizer.from_pretrained(model_stub)
# 量子化アルゴリズムとスキームの設定
recipe = QuantizationModifier(
ignore=["lm_head"],
targets="Linear",
scheme="FP8_dynamic",
)
# 量子化の適用
oneshot(
model=model,
recipe=recipe,
)
# 圧縮テンソル形式でディスクに保存
save_path = model_name + "-FP8-dynamic"
model.save_pretrained(save_path)
tokenizer.save_pretrained(save_path)
print(f"Model and tokenizer saved to: {save_path}")
評価方法
このモデルは、lm-evaluation-harness を使用して OpenLLM リーダーボードタスク(バージョン1と2)で評価され、lighteval を使用して推論タスクで評価されました。すべての評価には、vLLM が使用されました。
評価詳細
lm-evaluation-harness
lm_eval \
--model vllm \
--model_args pretrained="RedHatAI/Qwen3-14B-FP8-dynamic",dtype=auto,gpu_memory_utilization=0.5,max_model_len=8192,enable_chunk_prefill=True,tensor_parallel_size=1 \
--tasks openllm \
--apply_chat_template\
--fewshot_as_multiturn \
--batch_size auto
lm_eval \
--model vllm \
--model_args pretrained="RedHatAI/Qwen3-14B-FP8-dynamic",dtype=auto,gpu_memory_utilization=0.5,max_model_len=8192,enable_chunk_prefill=True,tensor_parallel_size=1 \
--tasks mgsm \
--apply_chat_template\
--batch_size auto
lm_eval \
--model vllm \
--model_args pretrained="RedHatAI/Qwen3-14B-FP8-dynamic",dtype=auto,gpu_memory_utilization=0.5,max_model_len=16384,enable_chunk_prefill=True,tensor_parallel_size=1 \
--tasks leaderboard \
--apply_chat_template\
--fewshot_as_multiturn \
--batch_size auto
lighteval
lighteval_model_arguments.yaml
model_parameters:
model_name: RedHatAI/Qwen3-14B-FP8-dynamic
dtype: auto
gpu_memory_utilization: 0.9
max_model_length: 40960
generation_parameters:
temperature: 0.6
top_k: 20
min_p: 0.0
top_p: 0.95
max_new_tokens: 32768
lighteval vllm \
--model_args lighteval_model_arguments.yaml \
--tasks lighteval|aime24|0|0 \
--use_chat_template = true
lighteval vllm \
--model_args lighteval_model_arguments.yaml \
--tasks lighteval|aime25|0|0 \
--use_chat_template = true
lighteval vllm \
--model_args lighteval_model_arguments.yaml \
--tasks lighteval|math_500|0|0 \
--use_chat_template = true
lighteval vllm \
--model_args lighteval_model_arguments.yaml \
--tasks lighteval|gpqa:diamond|0|0 \
--use_chat_template = true
lighteval vllm \
--model_args lighteval_model_arguments.yaml \
--tasks extended|lcb:codegeneration \
--use_chat_template = true
精度
カテゴリ | ベンチマーク | Qwen3-14B | Qwen3-14B-FP8-dynamic (このモデル) |
回復率 |
---|---|---|---|---|
OpenLLM v1 | MMLU (5-shot) | 76.81 | 76.47 | 99.6% |
ARC Challenge (25-shot) | 61.60 | 61.95 | 100.6% | |
GSM-8K (5-shot, strict-match) | 67.63 | 66.19 | 97.9% | |
Hellaswag (10-shot) | 55.09 | 56.46 | 102.5% | |
Winogrande (5-shot) | 62.51 | 63.61 | 101.8% | |
TruthfulQA (0-shot, mc2) | 55.39 | 55.59 | 100.4% | |
平均 | 63.17 | 63.38 | 100.3% | |
OpenLLM v2 | MMLU-Pro (5-shot) | 44.59 | 45.21 | 101.6% |
IFEval (0-shot) | 87.48 | 87.78 | 100.4% | |
BBH (3-shot) | 40.40 | 40.37 | 99.9% | |
Math-lvl-5 (4-shot) | 54.18 | 54.31 | 100.2% | |
GPQA (0-shot) | 0.30 | 0.00 | --- | |
MuSR (0-shot) | 5.74 | 5.07 | --- | |
平均 | 38.78 | 38.81 | 100.1% | |
多言語 | MGSM (0-shot) | 26.17 | 21.77 | 83.2% |
推論 (生成) |
AIME 2024 | 76.56 | 76.88 | 100.4% |
AIME 2025 | 66.35 | 66.98 | 101.0% | |
GPQA diamond | 61.62 | 64.14 | 104.1% | |
Math-lvl-5 | 96.80 | 97.20 | 100.4% | |
LiveCodeBench | 60.84 | 60.56 | 99.5% |
📄 ライセンス
このモデルは、Apache 2.0ライセンスの下で提供されています。



