L

Llama 3.2 11B Vision Instruct FP8 Dynamic

RedHatAIによって開発
これはLlama-3.2-11B-Vision-Instructをベースにした量子化モデルで、多言語の商業および研究用途に適しており、アシスタントのようなチャットシーンに使用できます。
ダウンロード数 2,295
リリース時間 : 9/25/2024

モデル概要

このモデルはFP8の重み量子化と活性化量子化によって最適化されており、多言語の商業および研究用途に適しており、特にアシスタントのようなチャットアプリに適しています。

モデル特徴

FP8量子化
FP8を使用して重みと活性化を量子化し、ディスク容量とGPUメモリの要件を約50%削減します。
マルチモーダルサポート
テキストと画像の入力をサポートし、マルチモーダルタスクを処理できます。
高効率推論
vLLMバックエンドを使用して高効率なデプロイを行い、高速な推論をサポートします。

モデル能力

テキスト生成
画像理解
マルチモーダルインタラクション

使用事例

アシスタントアプリケーション
画像説明生成
入力された画像に基づいて説明的なテキストまたは詩を生成します。
画像内容に合った自然言語の説明を生成できます。
マルチモーダルチャット
画像とテキストの入力を組み合わせて対話型の会話を行います。
画像内容を組み合わせた会話を理解して応答できます。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase