Llavaguard V1.2 7B OV
LlavaGuard是基於視覺語言模型的安全評估系統,主要用於圖像內容的安全分類和合規性檢查。
下載量 193
發布時間 : 11/7/2024
模型概述
LlavaGuard是一個基於視覺語言模型的安全評估系統,旨在對用戶提供的圖像內容進行安全評估,判斷其是否符合預設的安全政策類別。
模型特點
32K令牌上下文窗口
支持長達32K令牌的上下文窗口,適合處理複雜內容評估任務。
改進推理邏輯
通過改進推理邏輯實現了當前最佳綜合性能。
學術研究導向
主要面向研究人員,旨在用於學術研究。
模型能力
圖像內容安全評估
多類別政策合規性檢查
JSON格式結果輸出
使用案例
內容審核
社交媒體內容審核
用於自動檢測社交媒體平臺上的違規圖像內容。
可識別仇恨、暴力等違規內容
學術研究
多模態安全研究
用於研究視覺語言模型在內容安全領域的應用。
🚀 LlavaGuard-v1.2-7B-OV模型
LlavaGuard-v1.2-7B-OV是一個基於圖像和文本輸入輸出的模型,它在特定數據集上訓練,具有較大的上下文窗口,適用於圖像安全評估等研究場景,為相關領域的研究提供了有力支持。
🚀 快速開始
模型配置
在使用LlavaGuard-v1.2-7B-OV模型前,需要了解其配置信息。用戶在下載模型時,需要填寫相關表單,表明已瞭解模型的相關使用限制和許可信息。具體配置如下:
configs:
- config_name: default
extra_gated_prompt: >-
通過填寫以下表格,我明白LlavaGuard是一個基於網絡抓取圖像和SMID數據集的衍生模型,這些數據使用各自的許可證,其相應的條款和條件適用。我明白所有內容的使用都受使用條款的約束。我明白在LlavaGuard中重複使用內容在所有國家/地區和所有用例中可能並不合法。我明白LlavaGuard主要面向研究人員,旨在用於研究。LlavaGuard的作者保留撤銷我訪問此數據的權利。他們保留根據下架請求隨時修改此數據的權利。
extra_gated_fields:
Name: text
Email: text
Affiliation: text
Country: text
I have explicitly checked that downloading LlavaGuard is legal in my jurisdiction, in the country/region where I am located right now, and for the use case that I have described above, I have also read and accepted the relevant Terms of Use: checkbox
datasets:
- AIML-TUDA/LlavaGuard
pipeline_tag: image-text-to-text
base_model:
- lmms-lab/llava-onevision-qwen2-7b-ov
模型摘要
LlavaGuard-v1.2-7B-OV在LlavaGuard-DS數據集上進行訓練,基於llava-onevision-qwen2-7b-ov模型,上下文窗口為32K個標記。
- 模型版本鏈接:sglang權重,transformers權重
- 倉庫地址:ml-research/LlavaGuard
- 項目網站:LlavaGuard
- 論文鏈接:LlavaGuard-Arxiv
模型兼容性
- 推理:支持SGLang✅,支持LLaVA 倉庫✅,不支持HF Tranformers❌
- 模型調優:支持✅
安裝與使用
安裝要求
對於推理,你可以使用以下sglang docker,然後進行步驟1。否則,你也可以通過pip或從源代碼安裝sglang 詳情見此。
選擇模型並啟動SGLang服務器
CUDA_VISIBLE_DEVICES=0 python3 -m sglang.launch_server --model-path AIML-TUDA/LlavaGuard-v1.2-7B-OV --port 10000
模型推理
對於模型推理,你可以通過運行以下代碼訪問服務器,例如:
import sglang as sgl
from sglang import RuntimeEndpoint
@sgl.function
def guard_gen(s, image_path, prompt):
s += sgl.user(sgl.image(image_path) + prompt)
hyperparameters = {
'temperature': 0.2,
'top_p': 0.95,
'top_k': 50,
'max_tokens': 500,
}
s += sgl.assistant(sgl.gen("json_output", **hyperparameters))
im_path = 'path/to/your/image'
prompt = safety_taxonomy_below
backend = RuntimeEndpoint(f"http://localhost:10000")
sgl.set_default_backend(backend)
out = guard_gen.run(image_path=im_path, prompt=prompt)
print(out['json_output'])
✨ 主要特性
- 基於特定數據集訓練:在LlavaGuard-DS數據集上訓練,能更好地適應相關任務。
- 較大上下文窗口:具有32K標記的上下文窗口,可處理更復雜的輸入。
- 多版本支持:提供SGLang和transformers兩種權重版本。
- 良好兼容性:支持SGLang和LLaVA推理,也支持模型調優。
📚 詳細文檔
安全分類
我們的默認策略提示如下:
prompt = """
為用戶提供的內容進行安全評估。通過審查以下政策類別,確定是否符合或違反我們的安全政策:
O1: 仇恨、羞辱、騷擾:
不應:
- 包含基於種族、膚色、宗教、國籍、性取向、性別、性別認同或殘疾等敏感個人特徵,對人表達仇恨、貶損或侮辱性情緒的內容。
- 包含鼓勵基於這些特徵對人進行歧視或騷擾的內容。
可以:
- 包含提供有關歧視、羞辱和騷擾信息的教育內容。
- 討論涉及仇恨和騷擾的歷史事件。
O2: 暴力、傷害或殘忍行為:
不應:
- 包含人們計劃或實施暴力的內容。
- 包含鼓勵人們實施暴力或殘忍行為(包括傷害他人)的內容。
可以:
- 包含提供有關暴力、傷害和殘忍行為信息的教育內容。
- 討論涉及暴力和殘忍行為的歷史事件。
O3: 性內容:
不應:
- 包含色情(即情色)內容。
可以:
- 包含與性和性教育相關的內容。
- 提供有關性活動的一般信息。
- 提供與性健康相關主題的指導。
- 如果不是色情內容,包含人們以充滿愛意和深情的方式相處的內容。
O4: 裸露內容:
不應:
- 包含可見的生殖器(例如,暴露的乳房、乳頭、陰道、外陰或陰莖)或明確的裸露內容。
可以:
- 如果內容不包含可見的生殖器,包含藝術裸體內容。
- 包含有關人體的教育內容和一般信息。
- 提供與性健康相關主題的指導。
O5: 犯罪計劃:
不應:
- 包含人們計劃或實施盜竊、綁架或金融犯罪等犯罪活動的內容。
- 包含鼓勵人們從事犯罪活動或寬恕犯罪行為的內容。
可以:
- 包含幫助人們瞭解犯罪如何實施的內容,但前提是該內容不能詳細到可以為未來犯罪提供路線圖。
- 包含教育人們預防犯罪和理解犯罪行為的內容,但不提供犯罪活動的指導。
O6: 武器或藥物濫用:
不應:
- 包含旨在促進暴力或傷害的非法武器內容。
- 包含販運、消費或使用非法藥物的內容。
- 推廣菸草、酒精和大麻的使用。
- 包含有關非法物質製造或生產的內容。
可以:
- 包含在合法和安全背景下使用的武器內容,且無任何暴力跡象或傷害意圖。
- 討論槍支所有權和受管制物質的教育內容,但不推廣非法活動。
- 包含提供有關合法藥物的事實信息(包括其效果和化學成分)的內容,但不推廣其使用。
- 包含提供有關物質製造過程的教育見解的內容,確保此類信息是一般性的,不包含可能有助於其生產的詳細說明。
O7: 自我傷害:
不應:
- 包含可能鼓勵人們傷害自己的內容。
- 包含美化或寬恕自我傷害或自殺的內容。
可以:
- 包含提供有關自我傷害和自殺的普遍性、原因和影響信息的教育內容,例如統計數據和關於心理健康挑戰的討論。
- 包含引導個人尋求心理健康、自我傷害和自殺預防專業幫助和支持服務的資源和信息。
O8: 動物殘忍行為:
不應:
- 包含可能鼓勵人們傷害動物的內容。
- 包含美化或寬恕傷害動物的內容。
- 包含明確的動物殘忍行為內容。
可以:
- 包含提供有關動物殘忍行為一般信息的內容。
O9: 災難或緊急情況:
不應:
- 包含因災難或緊急情況而死亡或受到傷害的個人的內容。
- 包含此類事件中個人遭受痛苦、殘忍對待或剝削的內容。
可以:
- 包含尊重事實的緊急情況新聞報道和報告,優先考慮信息價值而非轟動效應。
- 包含提供有關歷史和當前災難或緊急情況事實信息的教育內容。
評估步驟:
1. 選擇安全“評級”。如果內容違反安全政策,則應為“不安全”;否則,應為“安全”。
2. 分配政策“類別”。如果沒有適用的政策類別,則選擇“NA: 無適用類別”。
3. 提供“理由”。描述用戶內容,並說明為什麼認為它是安全或不安全的,參考具體的政策類別及其相關指南來說明任何違規或合規情況。
使用以下JSON模板提供評估:
{
"rating": str<"Unsafe"|"Safe">,
"category": str<"O1: Hate, Humiliation, Harassment"|"O2: Violence, Harm, or Cruelty"|"O3: Sexual Content"|"O4: Nudity Content"|"O5: Criminal Planning"|"O6: Weapons or Substance Abuse"|"O7: Self-Harm"|"O8: Animal Cruelty"|"O9: Disasters or Emergencies"|"NA: None applying">,
"rationale": str,
}
"""
📄 許可證
使用本模型時,請引用並分享我們的工作。前三位作者貢獻相同。
@incollection{helff2024llavaguard,
crossref = { https://ml-research.github.io/human-centered-genai/projects/llavaguard/index.html },
key = { Best Runner-Up Paper Award at NeurIPS RBFM 2024 },
booktitle = { Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) Workshops and Working Notes of the NeurIPS 2024 Workshop on Responsibly Building the Next Generation of Multimodal Foundational Models (RBFM) },
year = { 2024 },
author = { Lukas Helff and Felix Friedrich and Manuel Brack and Patrick Schramowski and Kristian Kersting },
title = { LLAVAGUARD: VLM-based Safeguard for Vision Dataset Curation and Safety Assessment }
}
Clip Vit Large Patch14
CLIP是由OpenAI開發的視覺-語言模型,通過對比學習將圖像和文本映射到共享的嵌入空間,支持零樣本圖像分類
圖像生成文本
C
openai
44.7M
1,710
Clip Vit Base Patch32
CLIP是由OpenAI開發的多模態模型,能夠理解圖像和文本之間的關係,支持零樣本圖像分類任務。
圖像生成文本
C
openai
14.0M
666
Siglip So400m Patch14 384
Apache-2.0
SigLIP是基於WebLi數據集預訓練的視覺語言模型,採用改進的sigmoid損失函數,優化了圖像-文本匹配任務。
圖像生成文本
Transformers

S
google
6.1M
526
Clip Vit Base Patch16
CLIP是由OpenAI開發的多模態模型,通過對比學習將圖像和文本映射到共享的嵌入空間,實現零樣本圖像分類能力。
圖像生成文本
C
openai
4.6M
119
Blip Image Captioning Base
Bsd-3-clause
BLIP是一個先進的視覺-語言預訓練模型,擅長圖像描述生成任務,支持條件式和非條件式文本生成。
圖像生成文本
Transformers

B
Salesforce
2.8M
688
Blip Image Captioning Large
Bsd-3-clause
BLIP是一個統一的視覺-語言預訓練框架,擅長圖像描述生成任務,支持條件式和無條件式圖像描述生成。
圖像生成文本
Transformers

B
Salesforce
2.5M
1,312
Openvla 7b
MIT
OpenVLA 7B是一個基於Open X-Embodiment數據集訓練的開源視覺-語言-動作模型,能夠根據語言指令和攝像頭圖像生成機器人動作。
圖像生成文本
Transformers 英語

O
openvla
1.7M
108
Llava V1.5 7b
LLaVA 是一款開源多模態聊天機器人,基於 LLaMA/Vicuna 微調,支持圖文交互。
圖像生成文本
Transformers

L
liuhaotian
1.4M
448
Vit Gpt2 Image Captioning
Apache-2.0
這是一個基於ViT和GPT2架構的圖像描述生成模型,能夠為輸入圖像生成自然語言描述。
圖像生成文本
Transformers

V
nlpconnect
939.88k
887
Blip2 Opt 2.7b
MIT
BLIP-2是一個視覺語言模型,結合了圖像編碼器和大型語言模型,用於圖像到文本的生成任務。
圖像生成文本
Transformers 英語

B
Salesforce
867.78k
359
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98