P

Polyguard Qwen Smol

ToxicityPromptsによって開発
PolyGuardはLLM生成コンテンツを保護する多言語セキュリティモデルで、17言語のセキュリティ審査をサポートし、現在最先端の性能を達成しています。
ダウンロード数 194
リリース時間 : 2/18/2025

モデル概要

PolyGuardは大規模言語モデルベースのセキュリティ審査ツールで、多言語環境における有害コンテンツの検出とフィルタリングに特化しています。ユーザーリクエストの有害性、AI応答の拒否状態、応答自体の有害性を識別し、違反する具体的なセキュリティポリシーを分類できます。

モデル特徴

多言語サポート
17言語のセキュリティ審査をサポートし、世界主要言語をカバー
包括的なセキュリティ分類
暴力犯罪、性犯罪、ヘイトスピーチなど14種類の安全でないコンテンツを識別可能
高性能
既存の最先端オープンソースおよび商用セキュリティ分類器を5.5%上回る性能
大規模トレーニングデータ
191万件の多言語サンプルに基づくトレーニングで、モデルの汎化能力を確保

モデル能力

多言語テキスト分析
有害コンテンツ検出
セキュリティポリシー分類
対話セキュリティ評価

使用事例

コンテンツモデレーション
チャットボットセキュリティ保護
AIアシスタントとの対話中の有害コンテンツを検出
暴力、ヘイトスピーチなどの安全でないコンテンツを効果的に識別・フィルタリング
多言語コミュニティコンテンツ審査
多言語ソーシャルプラットフォームのユーザー生成コンテンツを自動審査
17言語のリアルタイム有害コンテンツ検出をサポート
AIセキュリティ研究
LLMセキュリティ評価
異なる言語モデルが生成するコンテンツの安全性を評価
標準化された多言語セキュリティベンチマークテストを提供
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase