T

Toxic Comment Model

martin-haによって開発
DistilBERTをファインチューニングした有害コメント分類モデルで、オンラインコメントの有害コンテンツを識別
ダウンロード数 238.97k
リリース時間 : 3/2/2022

モデル概要

このモデルはオンラインコメントの有害コンテンツを検出するための分類器で、DistilBERTアーキテクチャをファインチューニングしており、テキスト中の有害発言を識別可能

モデル特徴

高効率軽量
DistilBERTアーキテクチャを基に、高い性能を維持しつつモデルサイズと計算要件を削減
有害性検出
オンラインコメントの有害コンテンツに特化して最適化された識別機能
高速推論
P100 GPUでのトレーニング時間はわずか3時間で、リアルタイムアプリケーションに適応

モデル能力

テキスト分類
有害コンテンツ検出
自然言語処理

使用事例

コンテンツ審査
ソーシャルメディアコメント審査
ソーシャルメディアプラットフォーム上の有害コメントを自動識別
テストセット精度94%
フォーラムコンテンツフィルタリング
フォーラム管理者が不適切な発言をフィルタリングするのを支援
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase