P

Prompt Guard 86M

meta-llamaによって開発
PromptGuardは、LLMプロンプト攻撃を検出および保護するためのテキスト分類モデルで、悪意のあるプロンプトインジェクションやジェイルブレイクの試みを識別できます。
ダウンロード数 33.88k
リリース時間 : 7/21/2024

モデル概要

このモデルは、プロンプトインジェクションやジェイルブレイクを含むプロンプト攻撃からLLMベースのアプリケーションを保護するために特別に設計されています。明らかな悪意のあるプロンプトやインジェクション入力を含むデータを検出し、開発者がプロンプト攻撃のリスクを軽減するのに役立ちます。

モデル特徴

マルチラベル分類
入力を良性、インジェクション、ジェイルブレイクの3つに分類でき、開発者がさまざまなタイプのプロンプト攻撃を正確に識別するのに役立ちます。
オープンソースモデル
オープンソースモデルとして公開されており、開発者は特定のアプリケーションデータとユースケースに基づいてモデルを微調整できます。
複数の保護対策の組み合わせ
モデルベースの保護を他の保護対策と組み合わせて使用することを推奨し、より包括的な保護を提供します。

モデル能力

悪意のあるプロンプト検出
テキスト分類
プロンプトインジェクション識別
ジェイルブレイク試行識別

使用事例

LLMアプリケーションセキュリティ
サードパーティデータフィルタリング
インジェクションやジェイルブレイクのリスクを伴うサードパーティデータをフィルタリングし、モデルが意図しない命令を実行するのを防ぎます。
サードパーティデータにおけるプロンプト攻撃のリスクを大幅に低減
ユーザー会話フィルタリング
ジェイルブレイクのリスクを伴うユーザー会話をフィルタリングし、ユーザーがモデルのセキュリティ保護を回避するのを防ぎます。
悪意のあるユーザー攻撃からモデルを保護
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase