🚀 gemma-3-27b-it-FP8-Dynamic
このモデルは、google/gemma-3-27b-it を量子化したバージョンで、画像とテキストを入力とし、テキストを出力するマルチモーダルモデルです。量子化により、モデルの推論を効率的に行うことができます。
🚀 クイックスタート
このモデルは、vLLM バックエンドを使用して効率的にデプロイできます。以下の例を参照してください。
from vllm import LLM, SamplingParams
from vllm.assets.image import ImageAsset
from transformers import AutoProcessor
model_name = "RedHatAI/gemma-3-27b-it-FP8-dynamic"
image = ImageAsset("cherry_blossom").pil_image.convert("RGB")
processor = AutoProcessor.from_pretrained(model_name, trust_remote_code=True)
chat = [
{"role": "user", "content": [{"type": "image"}, {"type": "text", "text": "What is the content of this image?"}]},
{"role": "assistant", "content": []}
]
prompt = processor.apply_chat_template(chat, add_generation_prompt=True)
llm = LLM(model=model_name, trust_remote_code=True)
inputs = {"prompt": prompt, "multi_modal_data": {"image": [image]}}
outputs = llm.generate(inputs, SamplingParams(temperature=0.2, max_tokens=64))
print("RESPONSE:", outputs[0].outputs[0].text)
vLLM は OpenAI 互換のサービングもサポートしています。詳細は ドキュメント を参照してください。
✨ 主な機能
- モデルアーキテクチャ: gemma-3-27b-it
- モデル最適化:
- リリース日: 2025年2月24日
- バージョン: 1.0
- モデル開発者: Neural Magic
📦 インストール
このモデルを使用するには、必要なライブラリをインストールする必要があります。以下のコマンドを使用して、依存関係をインストールできます。
pip install vllm transformers
💻 使用例
基本的な使用法
from vllm import LLM, SamplingParams
from vllm.assets.image import ImageAsset
from transformers import AutoProcessor
model_name = "RedHatAI/gemma-3-27b-it-FP8-dynamic"
image = ImageAsset("cherry_blossom").pil_image.convert("RGB")
processor = AutoProcessor.from_pretrained(model_name, trust_remote_code=True)
chat = [
{"role": "user", "content": [{"type": "image"}, {"type": "text", "text": "What is the content of this image?"}]},
{"role": "assistant", "content": []}
]
prompt = processor.apply_chat_template(chat, add_generation_prompt=True)
llm = LLM(model=model_name, trust_remote_code=True)
inputs = {"prompt": prompt, "multi_modal_data": {"image": [image]}}
outputs = llm.generate(inputs, SamplingParams(temperature=0.2, max_tokens=64))
print("RESPONSE:", outputs[0].outputs[0].text)
📚 ドキュメント
モデルの作成
このモデルは、llm-compressor を使用して作成されました。以下のコードスニペットを実行して、モデルを作成できます。
モデル作成コード
import requests
import torch
from PIL import Image
from transformers import AutoProcessor, Gemma3ForConditionalGeneration
from llmcompressor.transformers import oneshot
from llmcompressor.modifiers.quantization import QuantizationModifier
model_id = google/gemma-3-27b-it
model = Gemma3ForConditionalGeneration.from_pretrained(
model_id, device_map="auto", torch_dtype="auto"
)
processor = AutoProcessor.from_pretrained(model_id, trust_remote_code=True)
recipe = [
QuantizationModifier(
targets="Linear",
scheme="FP8_DYNAMIC",
sequential_targets=["Gemma3DecoderLayer"],
ignore=["re:.*lm_head", "re:vision_tower.*", "re:multi_modal_projector.*"],
),
]
SAVE_DIR=f"{model_id.split('/')[1]}-FP8-Dynamic"
oneshot(
model=model,
recipe=recipe,
trust_remote_code_model=True,
output_dir=SAVE_DIR
)
評価
このモデルは、lm_evaluation_harness を使用して OpenLLM v1 テキストベンチマークで評価されました。評価は、以下のコマンドを使用して行われました。
評価コマンド
OpenLLM v1
lm_eval \
--model vllm \
--model_args pretrained="<model_name>",dtype=auto,add_bos_token=True,max_model_len=4096,tensor_parallel_size=<n>,gpu_memory_utilization=0.8,enable_chunked_prefill=True,trust_remote_code=True,enforce_eager=True \
--tasks openllm \
--batch_size auto
精度
カテゴリ |
メトリック |
google/gemma-3-27b-it |
RedHatAI/gemma-3-27b-it-FP8-Dynamic |
回復率 (%) |
OpenLLM V1 |
ARC Challenge |
72.53% |
72.70% |
100.24% |
OpenLLM V1 |
GSM8K |
92.12% |
91.51% |
99.34% |
OpenLLM V1 |
Hellaswag |
85.78% |
85.69% |
99.90% |
OpenLLM V1 |
MMLU |
77.53% |
77.45% |
99.89% |
OpenLLM V1 |
Truthfulqa (mc2) |
62.20% |
62.20% |
99.99% |
OpenLLM V1 |
Winogrande |
79.40% |
78.77% |
99.20% |
OpenLLM V1 |
平均スコア |
78.26% |
78.05% |
99.73% |
Vision Evals |
MMMU (val) |
50.89% |
51.00% |
100.22% |
Vision Evals |
ChartQA |
72.16% |
72.16% |
100.0% |
Vision Evals |
平均スコア |
61.53% |
61.58% |
100.11% |
📄 ライセンス
このモデルは、Apache 2.0 ライセンス の下で提供されています。