M

Meta Llama Guard 2 8B

Developed by meta-llama
80億パラメータのLlama 3を基にしたセキュリティ保護モデルで、LLMの入力と応答を安全に分類
Downloads 12.85k
Release Time : 4/17/2024

Model Overview

Llama Guard 2はLlama 3を基にしたセキュリティ保護モデルで、LLM入力(プロンプト分類)とLLM応答(応答分類)の内容を分類し、潜在的な有害コンテンツを識別します。

Model Features

セキュリティ分類
LLMの入力と応答を安全に分類し、潜在的な有害コンテンツを識別
多カテゴリ検出
MLCommonsの危害分類基準に基づき、11種類の異なる危害コンテンツを検出
確率スコアリング
最初のトークンの確率を分析して分類器スコアを生成し、閾値を設定して二項決定が可能

Model Capabilities

テキスト分類
コンテンツセキュリティ検出
危害コンテンツ識別

Use Cases

コンテンツセキュリティ
LLM入力フィルタリング
ユーザー入力に有害コンテンツが含まれているか検出
有害コンテンツがLLM処理プロセスに入るのを防止
LLM応答フィルタリング
LLMが生成した応答に有害コンテンツが含まれているか検出
LLM出力が安全基準に準拠していることを確保
コンプライアンス監視
コンプライアンスチェック
LLMの相互作用が法令やプラットフォームポリシーに準拠していることを確認
法的および評判リスクを低減
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase