G

Gemma 3 27b It FP8 Dynamic

RedHatAIによって開発
これはgoogle/gemma-3-27b-itの量子化バージョンで、FP8データ型を使用して重みを量子化し、ビジュアル - テキスト入力を受け取り、テキストを出力するのに適しており、vLLMによる効率的なデプロイで推論が可能です。
ダウンロード数 1,608
リリース時間 : 4/28/2025

モデル概要

Gemma-3-27b-itモデルに基づくFP8量子化バージョンで、マルチモーダル入力(ビジュアル + テキスト)をサポートし、テキスト出力を生成し、推論効率を最適化しています。

モデル特徴

FP8量子化
重みと活性化関数の両方をFP8データ型で量子化し、推論効率を大幅に向上させます。
マルチモーダルサポート
ビジュアルとテキストの同時入力をサポートし、画像内容を理解して関連するテキストを生成できます。
効率的なデプロイ
vLLMバックエンド向けに最適化され、効率的な推論デプロイをサポートします。
高精度維持
量子化後のモデルは、複数のベンチマークテストで元のモデルの99%以上の精度を維持します。

モデル能力

画像内容理解
マルチモーダルテキスト生成
ビジュアル質問応答
コンテキスト理解

使用事例

画像理解
画像内容記述
画像を入力した後、画像内容の文字記述を生成します
画像内の主要な要素とシーンを正確に識別します
スマート質問応答
ビジュアル質問応答
画像内容に基づいて関連する質問に答えます
MMMUとChartQAベンチマークテストで優れた性能を発揮します
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase