I

Internvl3 38B FP8 Dynamic

ConfidentialMindによって開発
これはOpenGVLab/InternVL3-38BのFP8静的量子化バージョンで、vLLMを使用した高性能推論に最適化されており、ビジュアル言語タスクで約2倍の高速化を実現し、同時に精度の損失は極めて少ないです。
ダウンロード数 5,173
リリース時間 : 5/31/2025

モデル概要

最適化されたビジュアル言語モデルで、FP8静的量子化により高性能推論を実現し、マルチモーダルタスクに適しています。

モデル特徴

FP8静的量子化
事前計算された活性化尺度により最大の推論性能を実現します
ビジュアル言語最適化
専用の量子化方法で、ビジュアル理解能力を保持します
vLLMサポート
vLLMとシームレスに統合でき、本番環境でのデプロイが容易です
メモリ効率化
元のFP16バージョンと比較して、メモリ使用量が約50%削減されます
性能向上
H100/L40S GPUでの推論速度が最大2倍に向上します

モデル能力

画像理解
テキスト生成
ビジュアル質問応答
マルチモーダル推論

使用事例

本番環境サービス
リアルタイム画像分析
高スループットが必要なビジュアル言語モデルサービスに使用されます
約2倍の推論速度向上
文書処理
文書AIとOCR
画像とテキストを含む文書を処理します
インタラクティブアプリケーション
マルチモーダルチャットボット
画像とテキストを理解できるバーチャルアシスタントを構築します
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase