L

Llama Guard 3 11B Vision

SinclairSchneiderによって開発
Llama-3.2-11Bに基づくマルチモーダルコンテンツセキュリティ分類モデルで、有害なテキスト/画像入力および応答の検出をサポートします。
ダウンロード数 1,725
リリース時間 : 9/26/2024

モデル概要

コンテンツセキュリティ分類に微調整された事前学習モデルで、LLMの入力と出力のセキュリティを保護でき、特に画像推論とマルチモーダル検出をサポートします。

モデル特徴

マルチモーダルコンテンツ検出
テキストと画像コンテンツを同時に分析し、有害なマルチモーダルプロンプトを識別できます。
明確な違反分類
具体的に違反した13種類のセキュリティポリシーを出力します(MLCommons分類法に基づく)。
柔軟なポリシー設定
カスタムセキュリティカテゴリの設定またはデフォルトカテゴリの除外をサポートします。
エンドツーエンド保護
LLMの全プロセス(入力プロンプト分類 + 出力応答分類)をカバーします。

モデル能力

テキストコンテンツセキュリティ分析
画像コンテンツセキュリティ分析
マルチモーダルプロンプト検出
違反カテゴリ識別
カスタムセキュリティポリシー

使用事例

コンテンツ審査
ソーシャルメディア審査
ユーザーがアップロードした画像付きのテキストコンテンツに暴力、憎悪発言などの違反コンテンツが含まれているかどうかを検出します。
人工的な再確認が必要な高リスクコンテンツを自動的にマークします。
AIチャット保護
ユーザーがLLMに送信する有害なマルチモーダルプロンプト(暴力画像 + 誘導的なテキストなど)をブロックします。
モデルが危険な応答を生成するのを防ぎます。
企業セキュリティ
社内通信監視
企業の通信ツール内の機密性の高い画像付きのテキスト情報をスキャンします。
業界のコンプライアンス要件を満たします。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase