L

Llamaguard 7b

meta-llamaによって開発
Llama 2ベースの7Bパラメータセキュリティ審査モデル、コンテンツセキュリティ分類用
ダウンロード数 590.11k
リリース時間 : 12/5/2023

モデル概要

Llama-Guardは、入力プロンプトと出力レスポンスを分類し、安全でないまたは違反コンテンツを識別・フィルタリングするためのセキュリティ審査モデルです。

モデル特徴

セキュリティ審査
入力プロンプトと出力レスポンスを分類し、安全でないまたは違反コンテンツを識別できます。
マルチカテゴリ分類
暴力・ヘイトスピーチ、成人向けコンテンツ、違法武器など、複数のセキュリティ分類をサポートします。
高性能
複数のベンチマークテストで、OpenAI審査API、Azureコンテンツセキュリティ、PerspectiveAPIを上回る性能を発揮します。

モデル能力

プロンプト分類
レスポンス分類
コンテンツセキュリティ審査

使用事例

コンテンツモデレーション
ソーシャルメディアコンテンツ審査
ソーシャルメディアプラットフォーム上の違反コンテンツを自動検出・フィルタリングするために使用されます。
暴力、ヘイトスピーチなどの安全でないコンテンツを効率的に識別します。
チャットボットセキュリティ審査
チャットボットの出力コンテンツが安全基準に準拠していることを保証します。
不適切なコンテンツの生成と拡散を削減します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase