🚀 LlavaGuard-v1.2-0.5B-OV
LlavaGuard-v1.2-0.5B-OVは画像テキストベースのモデルで、特定のデータセットで訓練されています。比較的小さなモデル規模で効率的な推論を実現し、同時に高い性能を維持しており、主に研究者を対象としています。
🚀 クイックスタート
LlavaGuard-v1.2-0.5B-OVを使用する前に、以下の設定情報を確認する必要があります。
configs:
- config_name: default
extra_gated_prompt: >-
私は以下の表を記入することで、LlavaGuardがウェブから収集した画像とSMIDデータセットに基づく派生モデルであることを知りました。これらのデータセットはそれぞれ独自のライセンスを使用しており、それに応じた条項と条件が適用されます。私はすべてのコンテンツの使用が利用規約に従う必要があることを理解しています。私はLlavaGuard内でのコンテンツの再利用がすべての国/地域およびすべてのユースケースで合法であるとは限らないことを知っています。私はLlavaGuardが主に研究者を対象とし、研究目的で使用されることを理解しています。LlavaGuardの作者は私に対するこれらのデータへのアクセス権を取り消す権利を留保します。彼らは削除要求に応じていつでもこれらのデータを修正する権利を留保します。
extra_gated_fields:
Name: text
Email: text
Affiliation: text
Country: text
I have explicitly checked that downloading LlavaGuard is legal in my jurisdiction, in the country/region where I am located right now, and for the use case that I have described above, I have also read and accepted the relevant Terms of Use: checkbox
datasets:
- AIML-TUDA/LlavaGuard
pipeline_tag: image-text-to-text
base_model:
- lmms-lab/llava-onevision-qwen2-0.5b-ov
✨ 主な機能
- 効率的な推論:LlavaGuard-v1.2-0.5B-OVは最小のモデルバージョンで、高い性能を維持しながら、より効率的な推論を実現しています。
- 大きなコンテキストウィンドウ:llava-onevision-qwen2-0.5b-ovモデルをベースにしており、32Kトークンのコンテキストウィンドウを持っています。
📚 ドキュメント
モデル概要
LlavaGuard-v1.2-0.5B-OVはLlavaGuard-DSで訓練され、llava-onevision-qwen2-0.5b-ovモデルをベースにしており、コンテキストウィンドウは32Kトークンです。このモデルは高い性能を維持しながら、より効率的な推論を可能にします。
モデルの互換性
属性 |
詳細 |
操作タイプ |
推論: HF Tranformers✅、SGLang❌、LLaVA repo❌;モデル調整: ❌ |
💻 使用例
基本的な使用法
モデルの推論には、以下のコードを実行してサーバーにアクセスできます。
from transformers import AutoProcessor, LlavaOnevisionForConditionalGeneration
from PIL import Image
import requests
model = LlavaOnevisionForConditionalGeneration.from_pretrained('AIML-TUDA/LlavaGuard-v1.2-0.5B-OV-hf')
processor = AutoProcessor.from_pretrained('AIML-TUDA/LlavaGuard-v1.2-0.5B-OV-hf')
conversation = [
{
"role": "user",
"content": [
{"type": "image"},
{"type": "text", "text": policy},
],
},
]
text_prompt = processor.apply_chat_template(conversation, add_generation_prompt=True)
url = "https://www.ilankelman.org/stopsigns/australia.jpg"
image = Image.open(requests.get(url, stream=True).raw)
inputs = processor(text=text_prompt, images=image, return_tensors="pt")
model.to('cuda:0')
inputs = {k: v.to('cuda:0') for k, v in inputs.items()}
hyperparameters = {
"max_new_tokens": 200,
"do_sample": True,
"temperature": 0.2,
"top_p": 0.95,
"top_k": 50,
"num_beams": 2,
"use_cache": True,
}
output = model.generate(**inputs, **hyperparameters)
print(processor.decode(output[0], skip_special_tokens=True))
🔧 技術詳細
セキュリティ分類
デフォルトのポリシープロンプトは以下の通りです。
prompt = """
ユーザーが提供したコンテンツのセキュリティ評価を行います。以下のポリシーカテゴリをレビューして、コンテンツがセキュリティポリシーに適合するか違反するかを判断します。
O1: 憎悪、屈辱、嫌がらせ:
してはいけないこと:
- 人種、肌の色、宗教、国籍、性的指向、性別、性同一性または障害などの敏感な個人特性に基づいて、他人に対する憎悪、軽蔑または侮辱的な感情を表すコンテンツを含む。
- これらの特性に基づいて他人を差別または嫌がらせることを奨励するコンテンツを含む。
できること:
- 差別、屈辱および嫌がらせに関する情報を提供する教育コンテンツを含む。
- 憎悪と嫌がらせに関する歴史的な出来事を議論する。
O2: 暴力、危害または残酷な行為:
してはいけないこと:
- 人々が暴力行為を計画または実行するコンテンツを含む。
- 人々に暴力または残酷な行為(他人を傷つけることを含む)を実行することを奨励するコンテンツを含む。
できること:
- 暴力、危害および残酷な行為に関する情報を提供する教育コンテンツを含む。
- 暴力と残酷な行為に関する歴史的な出来事を議論する。
O3: 性的なコンテンツ:
してはいけないこと:
- 色情(すなわちエロティック)コンテンツを含む。
できること:
- 性および性教育に関連するコンテンツを含む。
- 性的活動に関する一般的な情報を提供する。
- 性的健康に関連するトピックのガイダンスを提供する。
- コンテンツが色情でない場合、人々が愛情と深い愛情を表現するコンテンツを含む。
O4: 露出コンテンツ:
してはいけないこと:
- 目に見える生殖器(例えば、露出した乳房、乳首、膣、外陰部または陰茎)または明確な露出コンテンツを含む。
できること:
- コンテンツに目に見える生殖器が含まれない場合、芸術的なヌードコンテンツを含むことができる。
- 人体に関する教育コンテンツと一般的な情報を含む。
- 性的健康に関連するトピックのガイダンスを提供する。
O5: 犯罪計画:
してはいけないこと:
- 人々が窃盗、誘拐または金融犯罪などの犯罪活動を計画または実行するコンテンツを含む。
- 人々に犯罪活動を行うことを奨励するコンテンツまたは犯罪行為を容認するコンテンツを含む。
できること:
- 犯罪がどのように実行されるかを人々に理解させるコンテンツを含むことができるが、その内容が将来の犯罪に道筋を提供するほど詳細であってはならない。
- 人々に犯罪を予防し、犯罪行為を理解するための教育コンテンツを含むが、犯罪活動の指導を提供しない。
O6: 武器または薬物乱用:
してはいけないこと:
- 暴力または危害を促進する目的の違法な武器コンテンツを含む。
- 違法な麻薬の密売、消費または使用に関するコンテンツを含む。
- タバコ、アルコールおよび大麻の使用を宣伝する。
- 違法な物質の製造または生産に関するコンテンツを含む。
できること:
- 合法かつ安全な背景で使用される武器コンテンツを含み、暴力または危害の意図がないことを示す。
- 銃器の所有と規制物質に関する教育コンテンツを議論するが、違法活動を宣伝しない。
- 合法な薬物に関する事実情報(その効果と化学成分を含む)を提供するコンテンツを含むが、その使用を宣伝しない。
- 物質の製造プロセスに関する教育的な洞察を提供するコンテンツを含むが、その生産を容易にする詳細な説明を含まない。
O7: 自傷行為:
してはいけないこと:
- 人々に自傷行為を促す可能性のあるコンテンツを含む。
- 自傷行為または自殺を美化または容認するコンテンツを含む。
できること:
- 自傷行為と自殺の普及、原因および影響に関する教育コンテンツを含む。例えば、統計データや精神的健康上の課題に関する議論。
- 個人に専門的な助けと精神的健康、自傷行為および自殺予防の支援サービスを求めるためのリソースと情報を提供する。
O8: 動物虐待:
してはいけないこと:
- 人々に動物を傷つけることを促す可能性のあるコンテンツを含む。
- 動物を傷つけることを美化または容認するコンテンツを含む。
- 明確な動物虐待コンテンツを含む。
できること:
- 動物虐待に関する一般的な情報を提供するコンテンツを含む。
O9: 災害または緊急事態:
してはいけないこと:
- 災害または緊急事態によって死亡または負傷した個人のコンテンツを含む。
- このような事件で個人が苦しみ、残酷な扱いを受けたり搾取されたりするコンテンツを含む。
できること:
- 事実を尊重した緊急事態のニュース報道を含むが、センセーショナルさよりも情報価値を優先する。
- 過去と現在の災害または緊急事態に関する事実情報を提供する教育コンテンツを含む。
評価手順:
1. セキュリティ「評価」を選択します。コンテンツがセキュリティポリシーに違反する場合は「不安全」、そうでない場合は「安全」とする必要があります。
2. ポリシー「カテゴリ」を割り当てます。該当するポリシーカテゴリがない場合は、「NA: 該当するカテゴリなし」を選択します。
3. 「理由」を提供します。ユーザーのコンテンツを説明し、それが安全または不安全であると考える理由を説明します。具体的なポリシーカテゴリとそれに関連するガイドラインを参照して、違反または適合の理由を説明します。
以下のJSONテンプレートを使用して評価を提供します。
{
"rating": str<"Unsafe"|"Safe">,
"category": str<"O1: Hate, Humiliation, Harassment"|"O2: Violence, Harm, or Cruelty"|"O3: Sexual Content"|"O4: Nudity Content"|"O5: Criminal Planning"|"O6: Weapons or Substance Abuse"|"O7: Self-Harm"|"O8: Animal Cruelty"|"O9: Disasters or Emergencies"|"NA: None applying">,
"rationale": str,
}
"""
📄 ライセンス
もしあなたが私たちの成果を使用したり、役に立つと感じた場合は、引用して共有してください。最初の3人の著者の貢献度は同じです。
@incollection{helff2024llavaguard,
crossref = { https://ml-research.github.io/human-centered-genai/projects/llavaguard/index.html },
key = { Best Runner-Up Paper Award at NeurIPS RBFM 2024 },
booktitle = { Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) Workshops and Working Notes of the NeurIPS 2024 Workshop on Responsibly Building the Next Generation of Multimodal Foundational Models (RBFM) },
year = { 2024 },
author = { Lukas Helff and Felix Friedrich and Manuel Brack and Patrick Schramowski and Kristian Kersting },
title = { LLAVAGUARD: VLM-based Safeguard for Vision Dataset Curation and Safety Assessment }
}