S

Shieldgemma 2b

googleによって開発
ShieldGemmaはGemma 2をベースに構築された一連の安全コンテンツ審査モデルで、4種類の有害コンテンツ(ポルノ、危険なコンテンツ、ヘイト、ハラスメント)を対象としています。
ダウンロード数 3,107
リリース時間 : 7/16/2024

モデル概要

ShieldGemmaはデコーダのみの大規模言語モデルで、英語をサポートし、オープンウェイトを提供し、安全コンテンツ審査用に2B、9B、27Bパラメータの3つのサイズを提供します。

モデル特徴

複数有害タイプ審査
ポルノ、危険なコンテンツ、ヘイト、ハラスメントの4種類の有害コンテンツを審査
マルチスケール選択
2B、9B、27Bの3つのパラメータサイズのモデルを選択可能
柔軟な応用
コンテンツ分類のみのプロンプトとプロンプト-レスポンスのコンテンツ分類の2つの応用モードをサポート

モデル能力

テキスト分類
コンテンツセキュリティ審査
有害コンテンツ検出

使用事例

コンテンツセキュリティ
ユーザー入力フィルタリング
ユーザー入力に有害コンテンツが含まれているかどうかを検出
危険、ヘイト、ハラスメントなどの不適切なコンテンツを識別してフィルタリング
モデル出力フィルタリング
AI生成コンテンツがセキュリティポリシーに違反していないかを検出
AI出力がセキュリティ規範に準拠していることを保証
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase