D

Distilbert Base Multilingual Cased Toxicity

citizenlabによって開発
JIGSAW毒性コメント分類チャレンジのデータセットを基に訓練された多言語テキスト毒性分類モデルで、10種類の言語に対応しています。
ダウンロード数 12.69k
リリース時間 : 3/2/2022

モデル概要

このモデルはテキスト内の毒性コンテンツを検出するために使用され、Distil - Bertアーキテクチャに基づき、多言語環境に最適化されており、コンテンツ審査などのシーンに適しています。

モデル特徴

多言語対応
10種類の主要なヨーロッパ言語の毒性コンテンツ検出に対応
高効率で軽量
Distil - Bertアーキテクチャに基づき、性能を維持しながら計算リソースの必要量を削減
高い正確率
JIGSAWデータセットで94.25%の正確率を達成

モデル能力

テキスト毒性検出
多言語テキスト分類
コンテンツ審査

使用事例

コンテンツ審査
ソーシャルメディアコメントフィルタリング
ソーシャルメディア上の毒性コメントを自動的に識別してフィルタリング
正確率94.25%、F1スコア0.945
オンラインコミュニティ管理
コミュニティ管理者が不適切な発言を識別するのを支援
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase