L

Llavaguard 7B

Developed by AIML-TUDA
LlavaGuard是基于视觉语言模型的数据集安全评估与保障框架,主要用于内容安全评估。
Downloads 64
Release Time : 6/1/2024

Model Overview

LlavaGuard是一个基于视觉语言模型的安全评估框架,用于对用户提供的内容进行安全评估,判断其是否符合预设的安全政策类别。

Model Features

多类别安全评估
支持对多种安全政策类别进行评估,包括仇恨、暴力、不当内容等。
JSON格式输出
评估结果以结构化JSON格式输出,便于集成和处理。
学术研究导向
主要面向研究人员,适用于学术研究场景。

Model Capabilities

图像内容安全评估
文本内容安全评估
多模态内容分析

Use Cases

内容审核
社交媒体内容审核
用于自动检测社交媒体上的违规内容。
可识别仇恨、暴力等违规内容。
学术研究
安全政策研究
用于研究不同安全政策的有效性和适用范围。
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase