Erax NSFW V1.0
E
Erax NSFW V1.0
erax-aiによって開発
効率的なNSFWコンテンツ検出モデル、画像/動画審査や未成年者の有害コンテンツ接触制限に適応
ダウンロード数 26
リリース時間 : 10/22/2024
モデル概要
YOLO11アーキテクチャに基づくNSFWコンテンツ検出モデル、5種類のセンシティブコンテンツを予測しピクセル化処理をサポート
モデル特徴
マルチスケール検出
nano/small/mediumの3サイズモデルを提供し、異なる計算リソース要件に対応
センシティブコンテンツピクセル化
検出されたNSFWオブジェクトまたは画像全体を自動的にピクセル化処理
効率的なデプロイ
Ultralyticsフレームワークに基づき、既存システムへの迅速な統合をサポート
モデル能力
NSFWコンテンツ検出
センシティブ領域特定
自動コンテンツぼかし処理
複数ターゲット同時認識
使用事例
コンテンツ審査
ソーシャルメディアコンテンツフィルタリング
ユーザーアップロードコンテンツ中の裸体や性行為シーンを自動検出
5種類のセンシティブコンテンツを正確に識別可能な例を表示
未成年者保護システム
青少年モードで有害な視覚コンテンツを自動ブロック
センシティブ領域のピクセル化処理をサポート
🚀 EraX-NSFW-V1.0
EraX-NSFW-V1.0は、不適切なコンテンツ(NSFW)を検出するための高効率なモデルです。公開前の画像やビデオの管理、または子供たちが有害な出版物にアクセスするのを制限するのに非常に有効です。予測されたクラスとそのバウンディングボックスを取得することも、予測された有害オブジェクトをマスクする、または画像全体をマスクすることもできます。
⚠️ 重要提示
このメディアには、一部の人に不快感を与える可能性のあるセンシティブなコンテンツ(露出、暴力、不適切な言葉、ポルノなど)が含まれています。このコンテンツを閲覧するには、18歳以上である必要があります。
🚀 クイックスタート
EraX-NSFW-V1.0を使用するには、以下の手順に従ってください。
- 必要なパッケージをインストールする:
pip install ultralytics supervision huggingface-hub
- 事前学習済みモデルをダウンロードする:
from huggingface_hub import snapshot_download
snapshot_download(repo_id="erax-ai/EraX-NSFW-V1.0", local_dir="./", force_download=True)
- 簡単な使用例:
from ultralytics import YOLO
from PIL import Image
import supervision as sv
import numpy as np
IOU_THRESHOLD = 0.3
CONFIDENCE_THRESHOLD = 0.2
# pretrained_path = "erax_nsfw_yolo11n.pt"
# pretrained_path = "erax_nsfw_yolo11s.pt"
pretrained_path = "erax_nsfw_yolo11m.pt"
image_path_list = ["test_images/img_1.jpg", "test_images/img_2.jpg"]
model = YOLO(pretrained_path)
results = model(image_path_list,
conf=CONFIDENCE_THRESHOLD,
iou=IOU_THRESHOLD
)
for result in results:
annotated_image = result.orig_img.copy()
h, w = annotated_image.shape[:2]
anchor = h if h > w else w
detections = sv.Detections.from_ultralytics(result)
label_annotator = sv.LabelAnnotator(text_color=sv.Color.BLACK,
text_position=sv.Position.CENTER,
text_scale=anchor/1700)
pixelate_annotator = sv.PixelateAnnotator(pixel_size=anchor/50)
annotated_image = pixelate_annotator.annotate(
scene=annotated_image.copy(),
detections=detections
)
annotated_image = label_annotator.annotate(
annotated_image,
detections=detections
)
sv.plot_image(annotated_image, size=(10, 10))
✨ 主な機能
- 不適切なコンテンツ(NSFW)を高精度に検出します。
- 予測された有害オブジェクトをマスクする、または画像全体をマスクすることができます。
- 公開前の画像やビデオの管理、子供たちが有害な出版物にアクセスするのを制限するのに有効です。
📦 インストール
必要なパッケージをインストールするには、以下のコマンドを実行してください。
pip install ultralytics supervision huggingface-hub
💻 使用例
基本的な使用法
from ultralytics import YOLO
from PIL import Image
import supervision as sv
import numpy as np
IOU_THRESHOLD = 0.3
CONFIDENCE_THRESHOLD = 0.2
# pretrained_path = "erax_nsfw_yolo11n.pt"
# pretrained_path = "erax_nsfw_yolo11s.pt"
pretrained_path = "erax_nsfw_yolo11m.pt"
image_path_list = ["test_images/img_1.jpg", "test_images/img_2.jpg"]
model = YOLO(pretrained_path)
results = model(image_path_list,
conf=CONFIDENCE_THRESHOLD,
iou=IOU_THRESHOLD
)
for result in results:
annotated_image = result.orig_img.copy()
h, w = annotated_image.shape[:2]
anchor = h if h > w else w
detections = sv.Detections.from_ultralytics(result)
label_annotator = sv.LabelAnnotator(text_color=sv.Color.BLACK,
text_position=sv.Position.CENTER,
text_scale=anchor/1700)
pixelate_annotator = sv.PixelateAnnotator(pixel_size=anchor/50)
annotated_image = pixelate_annotator.annotate(
scene=annotated_image.copy(),
detections=detections
)
annotated_image = label_annotator.annotate(
annotated_image,
detections=detections
)
sv.plot_image(annotated_image, size=(10, 10))
📚 ドキュメント
モデルの詳細 / 概要
属性 | 詳情 |
---|---|
モデルアーキテクチャ | YOLO11 (nano, small, medium) |
タスク | 物体検出 (NSFW検出) |
データセット | プライベートデータセット (インターネットから) |
トレーニングセット | 31890枚の画像 |
バリデーションセット | 11538枚の画像 |
クラス | anus, make_love, nipple, penis, vagina |
ラベル
トレーニング設定
- モデルの重みファイル:
- Nano:
erax_nsfw_yolo11n.pt
- Small:
erax_nsfw_yolo11s.pt
- Medium:
erax_nsfw_yolo11m.pt
- Nano:
- エポック数:100
- 学習率:0.01
- バッチサイズ:208
- 画像サイズ:640x640
- トレーニングサーバ:8 x NVIDIA RTX A4000 (16GB GDDR6)
- トレーニング時間:約10時間
トレーニングの検証結果
トレーニングと検証の損失
混同行列
推論
学習済みモデルを使用するには、以下の手順に従ってください。
- 必要なパッケージをインストールする:
pip install ultralytics supervision huggingface-hub
- 事前学習済みモデルをダウンロードする:
from huggingface_hub import snapshot_download
snapshot_download(repo_id="erax-ai/EraX-NSFW-V1.0", local_dir="./", force_download=True)
- 簡単な使用例:
from ultralytics import YOLO
from PIL import Image
import supervision as sv
import numpy as np
IOU_THRESHOLD = 0.3
CONFIDENCE_THRESHOLD = 0.2
# pretrained_path = "erax_nsfw_yolo11n.pt"
# pretrained_path = "erax_nsfw_yolo11s.pt"
pretrained_path = "erax_nsfw_yolo11m.pt"
image_path_list = ["test_images/img_1.jpg", "test_images/img_2.jpg"]
model = YOLO(pretrained_path)
results = model(image_path_list,
conf=CONFIDENCE_THRESHOLD,
iou=IOU_THRESHOLD
)
for result in results:
annotated_image = result.orig_img.copy()
h, w = annotated_image.shape[:2]
anchor = h if h > w else w
detections = sv.Detections.from_ultralytics(result)
label_annotator = sv.LabelAnnotator(text_color=sv.Color.BLACK,
text_position=sv.Position.CENTER,
text_scale=anchor/1700)
pixelate_annotator = sv.PixelateAnnotator(pixel_size=anchor/50)
annotated_image = pixelate_annotator.annotate(
scene=annotated_image.copy(),
detections=detections
)
annotated_image = label_annotator.annotate(
annotated_image,
detections=detections
)
sv.plot_image(annotated_image, size=(10, 10))
トレーニング
トレーニング用のスクリプトは、こちらにあります。
その他の例
-
例01:
-
例02:
-
例03:make_loveクラスを使用すると、コンテキスト全体をカバーするため、最も安全です。 Without make_love class | With make_love class :-------------------------:|:-------------------------:
|
|
|
🔧 技術詳細
- 開発者:
- Phạm Đình Thục (thuc.pd@erax.ai)
- Mr. Nguyễn Anh Nguyên (nguyen@erax.ai)
- モデルバージョン:v1.0
- ライセンス:Apache 2.0
📄 ライセンス
このプロジェクトは、Apache 2.0ライセンスの下で公開されています。
引用
もしあなたが私たちのプロジェクトを役に立つと思った場合は、リポジトリにスターを付けて、以下のように引用していただけると幸いです。
@article{EraX-NSFW-V1.0,
author = {Phạm Đình Thục and
Mr. Nguyễn Anh Nguyên and
Đoàn Thành Khang and
Mr. Trần Hải Khương and
Mr. Trương Công Đức and
Phan Nguyễn Tuấn Kha and
Phạm Huỳnh Nhật},
title = {EraX-NSFW-V1.0: A Highly Efficient Model for NSFW Detection},
organization={EraX JS Company},
year={2024},
url={https://huggingface.co/erax-ai/EraX-NSFW-V1.0}
}
Table Transformer Detection
MIT
DETRアーキテクチャに基づくテーブル検出モデルで、非構造化文書からテーブルを抽出するために特別に設計されています
物体検出
Transformers

T
microsoft
2.6M
349
Grounding Dino Base
Apache-2.0
Grounding DINOはオープンセット物体検出モデルで、DINO検出器とテキストエンコーダを組み合わせることでゼロショット物体検出能力を実現しています。
物体検出
Transformers

G
IDEA-Research
1.1M
87
Grounding Dino Tiny
Apache-2.0
Grounding DINOはDINO検出器とグラウンディング事前学習を組み合わせたオープンセット物体検出モデルで、ゼロショット物体検出を実現できます。
物体検出
Transformers

G
IDEA-Research
771.67k
74
Detr Resnet 50
Apache-2.0
DETRはTransformerアーキテクチャに基づくエンドツーエンド物体検出モデルで、ResNet-50をバックボーンとして使用し、COCOデータセットでトレーニングされています。
物体検出
Transformers

D
facebook
505.27k
857
Detr Resnet 101
Apache-2.0
DETRはTransformerアーキテクチャを使用したエンドツーエンド物体検出モデルで、ResNet-101をバックボーンとしてCOCOデータセットでトレーニングされています。
物体検出
Transformers

D
facebook
262.94k
119
Detr Doc Table Detection
Apache-2.0
DETRアーキテクチャに基づく文書テーブル検出モデル、文書内の枠あり・枠なしテーブルを検出
物体検出
Transformers

D
TahaDouaji
233.45k
59
Yolos Small
Apache-2.0
視覚Transformer(ViT)ベースの物体検出モデルで、DETR損失関数を使用して訓練され、COCOデータセットで優れた性能を発揮します。
物体検出
Transformers

Y
hustvl
154.46k
63
Yolos Tiny
Apache-2.0
COCO 2017物体検出データセットでファインチューニングされたYOLOSモデル、Vision Transformerアーキテクチャを使用した効率的な物体検出を実現。
物体検出
Transformers

Y
hustvl
144.58k
266
Rtdetr R50vd Coco O365
Apache-2.0
RT-DETRは初のリアルタイムエンドツーエンド物体検出器で、効率的なハイブリッドエンコーダーと不確実性最小化クエリ選択メカニズムにより、COCOデータセットで53.1% AP、108 FPSの性能を達成しました。
物体検出
Transformers 英語

R
PekingU
111.17k
11
Rtdetr R101vd Coco O365
Apache-2.0
初のリアルタイムエンドツーエンド物体検出器、Transformerアーキテクチャに基づき、非極大抑制の必要性を排除、速度と精度でYOLOシリーズを凌駕
物体検出
Transformers 英語

R
PekingU
106.81k
7
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98