M

Minicpm Llama3 V 2 5 Int4

openbmbによって開発
MiniCPM-Llama3-V 2.5のint4量子化バージョンで、GPU VRAM使用量を約9GBに大幅に削減し、視覚質問応答タスクに適しています。
ダウンロード数 17.97k
リリース時間 : 5/19/2024

モデル概要

これはMiniCPM-Llama3-V 2.5を基にしたint4量子化モデルで、主に視覚質問応答タスクに使用され、画像内容を理解し関連する質問に答えることができます。

モデル特徴

低VRAM使用量
int4量子化バージョンによりGPU VRAM使用量を約9GBに大幅に削減し、リソースが限られた環境に適しています。
視覚質問応答能力
画像内容を理解し関連する質問に答えることができ、様々な視覚質問応答シナリオに適用可能です。
ストリーミング出力対応
ストリーミング出力をサポートしており、リアルタイムインタラクションが必要なアプリケーションシナリオに適しています。

モデル能力

画像内容理解
視覚質問応答
多言語サポート

使用事例

教育
画像内容質問応答
教育現場で、学生が画像をアップロードして質問し、モデルが関連する質問に答えることができます。
学習効率とインタラクティブ性を向上させます。
インテリジェントカスタマーサポート
視覚カスタマーサポート
ユーザーが製品画像をアップロードし、モデルが製品に関する質問に答えます。
カスタマーサポートの効率とユーザーエクスペリエンスを向上させます。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase