N

Nsfw Image Detection Large

由lovetillion開發
這是一個基於FocalNet架構的圖像分類模型,專門用於檢測圖像中的NSFW(不安全內容)類別。
下載量 165
發布時間 : 11/30/2024

模型概述

該模型能夠對圖像進行分類,識別其是否包含不安全內容(NSFW),分為安全、可疑和不安全三個類別。

模型特點

多類別分類
能夠將圖像分類為安全、可疑或不安全三個類別
生產級集成
已在實際生產環境中部署使用
倫理AI研究
基於倫理AI白皮書研究成果開發

模型能力

圖像分類
NSFW內容檢測
安全內容識別

使用案例

內容審核
社交媒體內容過濾
自動識別並過濾社交媒體平臺上的不安全內容
提高平臺內容安全性
用戶上傳內容審核
對用戶上傳的圖片進行自動審核
減少人工審核工作量
家長控制
兒童保護應用
在兒童設備上過濾不安全圖片
保護兒童免受不良內容影響
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase