🚀 gemma-3-12b-it-FP8-Dynamic
このモデルは、google/gemma-3-12b-it をFP8データ型に量子化したもので、vLLM >= 0.5.2での推論に対応しています。
🚀 クイックスタート
このセクションでは、モデルの概要、デプロイ方法、作成方法、評価結果について説明します。
✨ 主な機能
- モデルアーキテクチャ: gemma-3-12b-it
- モデル最適化:
- リリース日: 2025年2月24日
- バージョン: 1.0
- モデル開発者: Neural Magic
📦 インストール
このモデルを使用するには、vLLM バックエンドを使用して効率的にデプロイできます。以下のコード例を参照してください。
💻 使用例
基本的な使用法
from vllm import LLM, SamplingParams
from vllm.assets.image import ImageAsset
from transformers import AutoProcessor
model_name = "RedHatAI/gemma-3-12b-it-FP8-dynamic"
image = ImageAsset("cherry_blossom").pil_image.convert("RGB")
processor = AutoProcessor.from_pretrained(model_name, trust_remote_code=True)
chat = [
{"role": "user", "content": [{"type": "image"}, {"type": "text", "text": "What is the content of this image?"}]},
{"role": "assistant", "content": []}
]
prompt = processor.apply_chat_template(chat, add_generation_prompt=True)
llm = LLM(model=model_name, trust_remote_code=True)
inputs = {"prompt": prompt, "multi_modal_data": {"image": [image]}}
outputs = llm.generate(inputs, SamplingParams(temperature=0.2, max_tokens=64))
print("RESPONSE:", outputs[0].outputs[0].text)
vLLMはOpenAI互換のサービングもサポートしています。詳細は ドキュメント を参照してください。
📚 ドキュメント
モデルの作成
このモデルは llm-compressor を使用して作成されました。以下のコードスニペットを参照してください。
モデル作成コード
import requests
import torch
from PIL import Image
from transformers import AutoProcessor, Gemma3ForConditionalGeneration
from llmcompressor.transformers import oneshot
from llmcompressor.modifiers.quantization import QuantizationModifier
model_id = google/gemma-3-12b-it
model = Gemma3ForConditionalGeneration.from_pretrained(
model_id, device_map="auto", torch_dtype="auto"
)
processor = AutoProcessor.from_pretrained(model_id, trust_remote_code=True)
recipe = [
QuantizationModifier(
targets="Linear",
scheme="FP8_DYNAMIC",
sequential_targets=["Gemma3DecoderLayer"],
ignore=["re:.*lm_head", "re:vision_tower.*", "re:multi_modal_projector.*"],
),
]
SAVE_DIR=f"{model_id.split('/')[1]}-FP8-Dynamic"
oneshot(
model=model,
recipe=recipe,
trust_remote_code_model=True,
output_dir=SAVE_DIR
)
モデルの評価
このモデルは lm_evaluation_harness を使用してOpenLLM v1テキストベンチマークで評価されました。評価は以下のコマンドを使用して行われました。
評価コマンド
OpenLLM v1
lm_eval \
--model vllm \
--model_args pretrained="<model_name>",dtype=auto,add_bos_token=True,max_model_len=4096,tensor_parallel_size=<n>,gpu_memory_utilization=0.8,enable_chunked_prefill=True,trust_remote_code=True,enforce_eager=True \
--tasks openllm \
--batch_size auto
精度
カテゴリ |
指標 |
google/gemma-3-12b-it |
RedHatAI/gemma-3-12b-it-FP8-Dynamic |
回復率 (%) |
OpenLLM V1 |
ARC Challenge |
68.43% |
68.86% |
100.62% |
OpenLLM V1 |
GSM8K |
88.10% |
88.02% |
99.91% |
OpenLLM V1 |
Hellaswag |
83.76% |
83.78% |
100.02% |
OpenLLM V1 |
MMLU |
72.15% |
71.80% |
99.51% |
OpenLLM V1 |
Truthfulqa (mc2) |
58.13% |
59.35% |
102.09% |
OpenLLM V1 |
Winogrande |
79.40% |
79.48% |
100.10% |
OpenLLM V1 |
平均スコア |
74.99% |
75.21% |
100.29% |
Vision Evals |
MMMU (val) |
48.78% |
49.00% |
100.45% |
Vision Evals |
ChartQA |
68.08% |
68.88% |
101.18% |
Vision Evals |
平均スコア |
58.43% |
58.94% |
100.81% |
📄 ライセンス
このモデルは Apache-2.0 ライセンスの下で提供されています。