L

Llavaguard V1.2 0.5B OV

Developed by AIML-TUDA
LlavaGuardは視覚言語モデルに基づくセキュリティ評価の守護者で、主に画像コンテンツの安全分類と違反検出に使用されます。
Downloads 239
Release Time : 11/22/2024

Model Overview

LlavaGuardは軽量な視覚言語モデルで、ユーザーが提供するコンテンツの安全性を評価し、事前設定されたセキュリティポリシーに違反しているかどうかを判断します。

Model Features

効率的で軽量
強力な性能を維持しながら推論効率を最適化し、パラメータサイズはわずか0.5Bです。
大規模コンテキストウィンドウ
32Kトークンのコンテキストウィンドウをサポートし、長文や複雑なコンテンツの処理に適しています。
マルチポリシー分類
ヘイトコンテンツ、暴力、性的関連コンテンツなど、9つの主要なセキュリティポリシーの分類評価をサポートします。

Model Capabilities

画像セキュリティ評価
マルチポリシー分類
JSON形式出力

Use Cases

コンテンツ審査
ソーシャルメディアコンテンツ審査
ユーザーがアップロードした画像に違反コンテンツが含まれているかどうかを自動検出
9つの主要な違反コンテンツを識別可能で、精度が高い
学術研究
セキュリティポリシー研究
実際のコンテンツ審査におけるさまざまなセキュリティポリシーの効果を研究するために使用
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase