L

Llama Guard 3 1B

meta-llamaによって開発
Llama Guard 3-1Bは、Llama-3.2-1Bの事前学習モデルを微調整したコンテンツセキュリティ分類モデルで、LLMの入力と応答のコンテンツをセキュリティ分類するために使用されます。
ダウンロード数 73.88k
リリース時間 : 9/20/2024

モデル概要

このモデルは、大規模言語モデル(LLM)の入力(プロンプト)と出力(応答)の中の不安全なコンテンツを識別して分類し、テキストを生成してコンテンツが安全かどうかと違反したカテゴリを示します。

モデル特徴

コンテンツセキュリティ審査
LLMの対話の中の不安全なコンテンツを識別し、違反タイプを分類できます。
ダブルモード検出
ユーザーの入力(プロンプト)とAIの応答の両方のセキュリティ評価をサポートします。
標準化された分類法
MLCommonsの危害分類基準に整合し、統一されたコンテンツセキュリティ評価フレームワークを提供します。
モバイル端最適化
トリミングされた量子化バージョンを提供し、モバイルデバイスに適したデプロイが可能です。

モデル能力

テキストコンテンツセキュリティ分類
多輪対話審査
違反コンテンツ識別
セキュリティリスク評価

使用事例

AIセキュリティ
LLM入力フィルタリング
ユーザーの入力がLLMに入る前にセキュリティスクリーニングを行います。
悪意のあるまたは不適切なプロンプトがシステムに入るのを阻止します。
AI応答審査
LLMが生成したコンテンツのセキュリティ評価を行います。
AIが有害または不適切な応答を生成するのを防ぎます。
コンプライアンス監視
コンテンツコンプライアンスチェック
AIの対話がプラットフォームのコンテンツポリシーに準拠していることを確認します。
法的および評判上のリスクを低減します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase