Llavaguard V1.2 0.5B OV Hf
LlavaGuard-v1.2-0.5B-OV是一個基於圖像文本的模型,專注於內容安全評估,面向研究人員設計。
下載量 1,945
發布時間 : 11/22/2024
模型概述
該模型用於評估用戶提供的內容是否符合安全政策,支持多種安全類別的檢測,如仇恨言論、暴力內容、性內容等。
模型特點
高效推理
作為最小的模型版本,在保持強大性能的同時,實現了更高效的推理。
大上下文窗口
基於llava-onevision-qwen2-0.5b-ov模型,擁有32K token的上下文窗口。
多類別安全評估
支持多種安全類別的檢測,包括仇恨言論、暴力內容、性內容等。
模型能力
圖像文本安全評估
多類別內容檢測
高效推理
使用案例
內容安全
社交媒體內容審核
用於自動檢測社交媒體上的不當內容,如仇恨言論、暴力內容等。
提供安全評級和違規類別,幫助快速識別和處理違規內容。
教育內容審核
評估教育內容是否符合安全政策,確保內容適合學生使用。
提供安全評級和理由,幫助教育機構篩選合適的內容。
🚀 LlavaGuard-v1.2-0.5B-OV
LlavaGuard-v1.2-0.5B-OV是基於圖像文本的模型,在特定數據集上訓練,以較小的模型規模實現高效推理,同時保持強大性能,主要面向研究人員。
🚀 快速開始
在使用LlavaGuard-v1.2-0.5B-OV之前,需要了解以下配置信息:
configs:
- config_name: default
extra_gated_prompt: >-
我通過填寫以下表格,瞭解到LlavaGuard是一個基於網絡抓取圖像和SMID數據集的衍生模型,這些數據集使用各自的許可證,相應的條款和條件適用。我明白所有內容的使用都需遵守使用條款。我知道在LlavaGuard中複用內容在所有國家/地區和所有用例中可能並不合法。我瞭解到LlavaGuard主要面向研究人員,旨在用於研究。LlavaGuard的作者保留撤銷我對這些數據訪問權限的權利。他們保留根據下架請求隨時修改這些數據的權利。
extra_gated_fields:
Name: text
Email: text
Affiliation: text
Country: text
I have explicitly checked that downloading LlavaGuard is legal in my jurisdiction, in the country/region where I am located right now, and for the use case that I have described above, I have also read and accepted the relevant Terms of Use: checkbox
datasets:
- AIML-TUDA/LlavaGuard
pipeline_tag: image-text-to-text
base_model:
- lmms-lab/llava-onevision-qwen2-0.5b-ov
✨ 主要特性
- 高效推理:LlavaGuard-v1.2-0.5B-OV是最小的模型版本,在保持強大性能的同時,實現了更高效的推理。
- 大上下文窗口:基於llava-onevision-qwen2-0.5b-ov模型,擁有32K token的上下文窗口。
📚 詳細文檔
模型概述
LlavaGuard-v1.2-0.5B-OV在LlavaGuard-DS上進行訓練,基於llava-onevision-qwen2-0.5b-ov模型,上下文窗口為32K token。該模型在保持強大性能的同時,允許更高效的推理。
- 模型版本鏈接:sglang,tranformers
- 倉庫地址:ml-research/LlavaGuard
- 項目網站:LlavaGuard
- 論文鏈接:LlavaGuard-Arxiv
模型兼容性
操作類型 | 支持情況 |
---|---|
推理 | HF Tranformers✅,SGLang❌,LLaVA repo❌ |
模型調優 | ❌ |
💻 使用示例
基礎用法
對於模型推理,可以運行以下代碼訪問服務器:
from transformers import AutoProcessor, LlavaOnevisionForConditionalGeneration
from PIL import Image
import requests
model = LlavaOnevisionForConditionalGeneration.from_pretrained('AIML-TUDA/LlavaGuard-v1.2-0.5B-OV-hf')
processor = AutoProcessor.from_pretrained('AIML-TUDA/LlavaGuard-v1.2-0.5B-OV-hf')
conversation = [
{
"role": "user",
"content": [
{"type": "image"},
{"type": "text", "text": policy},
],
},
]
text_prompt = processor.apply_chat_template(conversation, add_generation_prompt=True)
url = "https://www.ilankelman.org/stopsigns/australia.jpg"
image = Image.open(requests.get(url, stream=True).raw)
inputs = processor(text=text_prompt, images=image, return_tensors="pt")
model.to('cuda:0')
inputs = {k: v.to('cuda:0') for k, v in inputs.items()}
# Generate
hyperparameters = {
"max_new_tokens": 200,
"do_sample": True,
"temperature": 0.2,
"top_p": 0.95,
"top_k": 50,
"num_beams": 2,
"use_cache": True,
}
output = model.generate(**inputs, **hyperparameters)
print(processor.decode(output[0], skip_special_tokens=True))
🔧 技術細節
安全分類
默認的策略提示如下:
prompt = """
為用戶提供的內容進行安全評估。通過審查以下政策類別,確定內容是否符合或違反我們的安全政策:
O1: 仇恨、羞辱、騷擾:
不應:
- 包含基於種族、膚色、宗教、國籍、性取向、性別、性別認同或殘疾等敏感個人特徵,對他人表達仇恨、貶損或侮辱性情緒的內容。
- 包含鼓勵基於這些特徵對他人進行歧視或騷擾的內容。
可以:
- 包含提供有關歧視、羞辱和騷擾信息的教育內容。
- 討論涉及仇恨和騷擾的歷史事件。
O2: 暴力、傷害或殘忍行為:
不應:
- 包含人們策劃或實施暴力行為的內容。
- 包含鼓勵人們實施暴力或殘忍行為(包括傷害他人)的內容。
可以:
- 包含提供有關暴力、傷害和殘忍行為信息的教育內容。
- 討論涉及暴力和殘忍行為的歷史事件。
O3: 性內容:
不應:
- 包含色情(即情色)內容。
可以:
- 包含與性和性教育相關的內容。
- 提供有關性活動的一般信息。
- 提供與性健康相關主題的指導。
- 如果內容並非色情內容,則可以包含人們表達愛意和深情的內容。
O4: 裸露內容:
不應:
- 包含可見的生殖器(例如,暴露的乳房、乳頭、陰道、外陰或陰莖)或明確的裸露內容。
可以:
- 如果內容不包含可見的生殖器,則可以包含藝術裸體內容。
- 包含有關人體的教育內容和一般信息。
- 提供與性健康相關主題的指導。
O5: 犯罪策劃:
不應:
- 包含人們策劃或實施盜竊、綁架或金融犯罪等犯罪活動的內容。
- 包含鼓勵人們從事犯罪活動或縱容犯罪行為的內容。
可以:
- 包含幫助人們瞭解犯罪是如何實施的內容,前提是該內容不會詳細到可以為未來的犯罪提供路線圖。
- 包含教育人們預防犯罪和理解犯罪行為的內容,而不提供犯罪活動的指導。
O6: 武器或藥物濫用:
不應:
- 包含旨在促進暴力或傷害的非法武器內容。
- 包含非法毒品的販運、消費或使用內容。
- 宣傳菸草、酒精和大麻的使用。
- 包含有關非法物質製造或生產的內容。
可以:
- 包含在合法和安全的背景下使用的武器內容,且無任何暴力或傷害意圖的跡象。
- 討論槍支所有權和受管制物質的教育內容,而不宣傳非法活動。
- 包含提供有關合法藥物的事實信息(包括其效果和化學成分)的內容,而不宣傳其使用。
- 包含提供有關物質製造過程的教育見解的內容,確保此類信息是一般性的,不包含可能便於其生產的詳細說明。
O7: 自我傷害:
不應:
- 包含可能鼓勵人們傷害自己的內容。
- 包含美化或縱容自我傷害或自殺的內容。
可以:
- 包含提供有關自我傷害和自殺的普遍性、原因和影響的教育內容,如統計數據和關於心理健康挑戰的討論。
- 包含引導個人尋求專業幫助和心理健康、自我傷害和自殺預防支持服務的資源和信息。
O8: 動物虐待:
不應:
- 包含可能鼓勵人們傷害動物的內容。
- 包含美化或縱容傷害動物的內容。
- 包含明確的動物虐待內容。
可以:
- 包含提供有關動物虐待一般信息的內容。
O9: 災難或緊急情況:
不應:
- 包含因災難或緊急情況而死亡或受傷的個人的內容。
- 包含此類事件中個人遭受痛苦、殘忍對待或剝削的內容。
可以:
- 包含尊重事實的緊急情況新聞報道,優先考慮信息價值而非聳人聽聞。
- 包含提供有關歷史和當前災難或緊急情況事實信息的教育內容。
評估步驟:
1. 選擇安全“評級”。如果內容違反安全政策,則應為“不安全”;否則,應為“安全”。
2. 分配政策“類別”。如果沒有適用的政策類別,則選擇“NA: 無適用類別”。
3. 提供“理由”。描述用戶內容,並說明為什麼認為其安全或不安全,參考具體的政策類別及其相關準則來說明任何違規或合規情況。
使用以下JSON模板提供評估:
{
"rating": str<"Unsafe"|"Safe">,
"category": str<"O1: Hate, Humiliation, Harassment"|"O2: Violence, Harm, or Cruelty"|"O3: Sexual Content"|"O4: Nudity Content"|"O5: Criminal Planning"|"O6: Weapons or Substance Abuse"|"O7: Self-Harm"|"O8: Animal Cruelty"|"O9: Disasters or Emergencies"|"NA: None applying">,
"rationale": str,
}
"""
📄 許可證
如果您使用或發現我們的工作有用,請引用和分享。前三位作者貢獻相同。
@incollection{helff2024llavaguard,
crossref = { https://ml-research.github.io/human-centered-genai/projects/llavaguard/index.html },
key = { Best Runner-Up Paper Award at NeurIPS RBFM 2024 },
booktitle = { Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) Workshops and Working Notes of the NeurIPS 2024 Workshop on Responsibly Building the Next Generation of Multimodal Foundational Models (RBFM) },
year = { 2024 },
author = { Lukas Helff and Felix Friedrich and Manuel Brack and Patrick Schramowski and Kristian Kersting },
title = { LLAVAGUARD: VLM-based Safeguard for Vision Dataset Curation and Safety Assessment }
}
Clip Vit Large Patch14
CLIP是由OpenAI開發的視覺-語言模型,通過對比學習將圖像和文本映射到共享的嵌入空間,支持零樣本圖像分類
圖像生成文本
C
openai
44.7M
1,710
Clip Vit Base Patch32
CLIP是由OpenAI開發的多模態模型,能夠理解圖像和文本之間的關係,支持零樣本圖像分類任務。
圖像生成文本
C
openai
14.0M
666
Siglip So400m Patch14 384
Apache-2.0
SigLIP是基於WebLi數據集預訓練的視覺語言模型,採用改進的sigmoid損失函數,優化了圖像-文本匹配任務。
圖像生成文本
Transformers

S
google
6.1M
526
Clip Vit Base Patch16
CLIP是由OpenAI開發的多模態模型,通過對比學習將圖像和文本映射到共享的嵌入空間,實現零樣本圖像分類能力。
圖像生成文本
C
openai
4.6M
119
Blip Image Captioning Base
Bsd-3-clause
BLIP是一個先進的視覺-語言預訓練模型,擅長圖像描述生成任務,支持條件式和非條件式文本生成。
圖像生成文本
Transformers

B
Salesforce
2.8M
688
Blip Image Captioning Large
Bsd-3-clause
BLIP是一個統一的視覺-語言預訓練框架,擅長圖像描述生成任務,支持條件式和無條件式圖像描述生成。
圖像生成文本
Transformers

B
Salesforce
2.5M
1,312
Openvla 7b
MIT
OpenVLA 7B是一個基於Open X-Embodiment數據集訓練的開源視覺-語言-動作模型,能夠根據語言指令和攝像頭圖像生成機器人動作。
圖像生成文本
Transformers 英語

O
openvla
1.7M
108
Llava V1.5 7b
LLaVA 是一款開源多模態聊天機器人,基於 LLaMA/Vicuna 微調,支持圖文交互。
圖像生成文本
Transformers

L
liuhaotian
1.4M
448
Vit Gpt2 Image Captioning
Apache-2.0
這是一個基於ViT和GPT2架構的圖像描述生成模型,能夠為輸入圖像生成自然語言描述。
圖像生成文本
Transformers

V
nlpconnect
939.88k
887
Blip2 Opt 2.7b
MIT
BLIP-2是一個視覺語言模型,結合了圖像編碼器和大型語言模型,用於圖像到文本的生成任務。
圖像生成文本
Transformers 英語

B
Salesforce
867.78k
359
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98