M

Meta Llama Guard 2 8B

meta-llamaによって開発
80億パラメータのLlama 3を基にしたセキュリティ保護モデルで、LLMの入力と応答を安全に分類
ダウンロード数 12.85k
リリース時間 : 4/17/2024

モデル概要

Llama Guard 2はLlama 3を基にしたセキュリティ保護モデルで、LLM入力(プロンプト分類)とLLM応答(応答分類)の内容を分類し、潜在的な有害コンテンツを識別します。

モデル特徴

セキュリティ分類
LLMの入力と応答を安全に分類し、潜在的な有害コンテンツを識別
多カテゴリ検出
MLCommonsの危害分類基準に基づき、11種類の異なる危害コンテンツを検出
確率スコアリング
最初のトークンの確率を分析して分類器スコアを生成し、閾値を設定して二項決定が可能

モデル能力

テキスト分類
コンテンツセキュリティ検出
危害コンテンツ識別

使用事例

コンテンツセキュリティ
LLM入力フィルタリング
ユーザー入力に有害コンテンツが含まれているか検出
有害コンテンツがLLM処理プロセスに入るのを防止
LLM応答フィルタリング
LLMが生成した応答に有害コンテンツが含まれているか検出
LLM出力が安全基準に準拠していることを確保
コンプライアンス監視
コンプライアンスチェック
LLMの相互作用が法令やプラットフォームポリシーに準拠していることを確認
法的および評判リスクを低減
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase