V

Vit Base Patch16 224 In21k Finetuned Moderation

mbehbooeiによって開発
Google Vision Transformerアーキテクチャに基づく画像分類モデルで、コンテンツモデレーションタスク向けにファインチューニングされ、テストセットで90.43%の精度を達成
ダウンロード数 752
リリース時間 : 9/30/2023

モデル概要

このモデルはVision Transformerアーキテクチャに基づく画像分類器で、ファインチューニング後、コンテンツモデレーションシーンに適用可能。画像内の不適切なコンテンツを自動識別できます。

モデル特徴

高精度
テストセットで90.43%の分類精度を達成
効率的なファインチューニング
事前学習済みモデルに基づき迅速にファインチューニング可能で、わずか2トレーニングエポックで完了
標準化入力
224x224ピクセルの標準画像入力をサポート

モデル能力

画像分類
コンテンツモデレーション
自動画像認識

使用事例

コンテンツモデレーション
ソーシャルメディアコンテンツフィルタリング
不適切な画像コンテンツを自動識別・フィルタリング
90.43%の識別精度
ユーザー生成コンテンツのモデレーション
フォーラムやコメント欄などのUGCプラットフォーム向け画像審査
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase