N

Nsfw Image Detection Large

lovetillionによって開発
これはFocalNetアーキテクチャに基づく画像分類モデルで、画像内のNSFW(不適切なコンテンツ)カテゴリを検出するために特別に設計されています。
ダウンロード数 165
リリース時間 : 11/30/2024

モデル概要

このモデルは画像を分類し、安全、疑わしい、または不適切なコンテンツ(NSFW)を含むかどうかを識別できます。

モデル特徴

多クラス分類
画像を安全、疑わしい、または不適切の3つのカテゴリに分類できます
プロダクションレベル統合
実際のプロダクション環境で既に展開・使用されています
倫理的AI研究
倫理的AI白書の研究成果に基づいて開発されました

モデル能力

画像分類
NSFWコンテンツ検出
安全なコンテンツ識別

使用事例

コンテンツモデレーション
ソーシャルメディアコンテンツフィルタリング
ソーシャルメディアプラットフォーム上の不適切なコンテンツを自動的に識別・フィルタリング
プラットフォームのコンテンツ安全性向上
ユーザーアップロードコンテンツ審査
ユーザーがアップロードした画像を自動審査
手動審査作業の削減
ペアレンタルコントロール
児童保護アプリケーション
児童向けデバイスで不適切な画像をフィルタリング
児童を有害コンテンツから保護
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase