モデル概要
モデル特徴
モデル能力
使用事例
library_name: transformers language:
- ar
- de
- en
- es
- fr
- hi
- id
- it
- pt
- th
- tl
- vi base_model:
- meta-llama/Llama-4-Scout-17B-16E tags:
- meta
- pytorch
- llama
- llama-4
extra_gated_prompt: "LLAMA 4 コミュニティライセンス契約\nLlama 4 バージョン発効日: 2025年4月5日\n"本契約"とは、Llama素材の使用、複製、頒布および改変に関する本契約に定める条件を意味します。\n"ドキュメンテーション"とは、Metaがhttps://www.llama.com/docs/overviewで配布するLlama 4に付随する仕様書、マニュアルおよびドキュメンテーションを意味します。\n"ライセンシー"または"あなた"とは、適用される法律、規則または規制の下で法的同意を提供するのに必要な年齢に達しており、あなたが本契約を締結する場合にあなたの雇用主またはその他の個人または団体を法的に拘束する権限を有する、あなた、またはあなたの雇用主またはその他の個人または団体(あなたがそのような個人または団体に代わって本契約を締結する場合)を意味します。\n"Llama 4"とは、Metaがhttps://www.llama.com/llama-downloadsで配布する、機械学習モデルコード、訓練済みモデル重み、推論を可能にするコード、訓練を可能にするコード、ファインチューニングを可能にするコードおよびその他の要素を含む、基盤となる大規模言語モデルおよびソフトウェアとアルゴリズムを意味します。\n"Llama素材"とは、本契約の下で利用可能となる、Metaの専有するLlama 4およびドキュメンテーション(およびその一部)を総称して意味します。\n"Meta"または"当社"とは、Meta Platforms Ireland Limited(あなたがEEAまたはスイスに所在する場合、またはあなたが団体の場合、主たる事業所がEEAまたはスイスにある場合)およびMeta Platforms, Inc.(あなたがEEAまたはスイスの外に所在する場合)を意味します。\n下記の「同意する」をクリックするか、Llama素材のいかなる部分または要素を使用または頒布することにより、あなたは本契約に拘束されることに同意したものとみなされます。\n1\. ライセンス権利および再頒布。\na. 権利の付与。あなたは、Llama素材に具現化されたMetaの知的財産またはその他の権利に基づき、Llama素材を使用、複製、頒布、複写、派生作品を作成し、改変するための非独占的、世界的、非譲渡的かつロイヤリティ無料の限定ライセンスを付与されます。\nb. 再頒布および使用。\ni. あなたがLlama素材(またはその派生作品)またはそれらを含む製品またはサービス(他のAIモデルを含む)を頒布または利用可能にする場合、(A)そのようなLlama素材に本契約の写しを添付すること、および(B)関連するウェブサイト、ユーザーインターフェース、ブログ投稿、アバウトページ、または製品ドキュメンテーションに「Built with Llama」を目立つように表示するものとします。あなたがLlama素材またはLlama素材の出力または結果を使用して、頒布または利用可能となるAIモデルを作成、訓練、ファインチューニング、またはその他の方法で改善する場合、そのようなAIモデル名の先頭に「Llama」を含めるものとします。\nii. あなたが統合されたエンドユーザー製品の一部としてライセンシーからLlama素材またはその派生作品を受領する場合、本契約の第2条はあなたには適用されません。\niii. あなたが頒布するLlama素材のすべてのコピーに、そのようなコピーの一部として頒布される「Notice」テキストファイル内に以下の帰属表示を保持する必要があります:「Llama 4はLlama 4 Community Licenseの下でライセンスされており、Copyright © Meta Platforms, Inc. All Rights Reserved.」\niv. あなたのLlama素材の使用は、適用される法律および規制(貿易コンプライアンスに関する法律および規制を含む)に準拠し、Llama素材の許容使用ポリシー(https://www.llama.com/llama4/use-policyで利用可能)に従う必要があり、同ポリシーは本契約に引用により組み込まれます。\n\n2\. 追加の商業的条件。Llama 4バージョンのリリース日において、ライセンシーまたはライセンシーの関連会社が提供する製品またはサービスの月間アクティブユーザー数が前暦月において7億月間アクティブユーザーを超える場合、あなたはMetaからライセンスを取得する必要があり、Metaはその単独の裁量でこれを付与する場合があり、Metaが明示的にそのような権利を付与しない限り、あなたは本契約の下でのいかなる権利も行使する権限を有しません。\n3**. 保証の否認**。適用される法律で要求されない限り、Llama素材およびその出力または結果は「現状のまま」で提供され、いかなる種類の保証もなく、Metaは明示的または黙示的を問わず、所有権、非侵害、商品性または特定の目的への適合性の保証を含むすべての保証を否認します。あなたはLlama素材の使用または再頒布の適切性を単独で判断する責任を負い、Llama素材およびその出力または結果の使用に関連するすべてのリスクを負担するものとします。\n4\. 責任の制限。いかなる場合でも、Metaまたはその関連会社は、契約、不法行為、過失、製品責任その他の如何なる責任理論に基づいても、本契約に起因する逸失利益または間接的、特別、結果的、付随的、懲罰的または例示的損害について責任を負わず、Metaまたはその関連会社がそのような損害の可能性について知らされていた場合でも同様です。\n5\. 知的財産。\na. 本契約の下では商標ライセンスは付与されず、Llama素材に関連して、Metaもライセンシーも、Llama素材の記述および再頒布における合理的かつ慣習的な使用に必要な場合または本第5条(a)に定める場合を除き、他方またはその関連会社が所有または関連するいかなる名称または商標も使用できません。Metaはここに、第1条(b)(i)の最終文に準拠するために必要な範囲でのみ「Llama」(「商標」)を使用するライセンスをあなたに付与します。あなたはMetaのブランドガイドライン(現在はhttps://about.meta.com/brand/resources/meta/company-brand/でアクセス可能)に従うものとします。あなたの商標の使用から生じるすべての信用はMetaに帰属します。\nb. MetaがLlama素材およびMetaが作成またはMetaのために作成された派生作品を所有することを条件として、あなたが作成したLlama素材の派生作品および改変に関して、あなたとMetaの間では、あなたがそのような派生作品および改変の所有者であるものとします。\nc. あなたがMetaまたはいかなる団体(訴訟における反訴または交叉請求を含む)に対して、Llama素材またはLlama 4の出力または結果、またはそのいずれかの一部が、あなたが所有またはライセンス可能な知的財産またはその他の権利の侵害を構成すると主張する訴訟またはその他の手続きを提起する場合、本契約の下であなたに付与されたすべてのライセンスは、そのような訴訟または請求が提起または開始された日をもって終了します。あなたは、Llama素材の使用または頒布に起因または関連して第三者から提起されたいかなる請求からもMetaを補償し、免責するものとします。\n6\. 期間および終了。本契約の期間は、あなたが本契約を受諾した時またはLlama素材にアクセスした時に開始し、本契約に定める条件に従って終了するまで完全な効力を有します。Metaは、あなたが本契約のいかなる条項または条件に違反した場合、本契約を終了することができます。本契約の終了時、あなたはLlama素材の使用を停止し削除するものとします。第3条、第4条および第7条は、本契約の終了後も存続します。\n7\. 準拠法および管轄。本契約は、法の選択の原則を問わずカリフォルニア州の法律に準拠し、解釈されるものとし、国際物品売買契約に関する国連条約は本契約には適用されません。本契約から生じるいかなる紛争についても、カリフォルニア州の裁判所が専属的管轄権を有します。"
extra_gated_fields:
名: text
姓: text
生年月日: date_picker
国: country
所属: text
役職:
type: select
options:
- 学生
- 大学院研究者
- AI研究者
- AI開発者/エンジニア
- 記者
- その他 geo: ip_location ? 下記の「送信」をクリックすることで、ライセンス条件に同意し、提供する情報がMetaプライバシーポリシーに従って収集、保存、処理、共有されることを確認します : checkbox extra_gated_description: 提供いただく情報は、Metaプライバシーポリシーに従って収集、保存、処理、共有されます。 extra_gated_button_content: 送信 extra_gated_heading: 完全な法的氏名、生年月日、およびすべての企業識別子を含む完全な組織名を必ずご提供ください。頭字語や特殊文字の使用は避けてください。これらの指示に従わない場合、このモデルやHugging Face上の他のモデルにアクセスできなくなる可能性があります。送信後はこのフォームを編集できませんので、すべての情報が正確であることを確認してください。 license: other license_name: llama4
meta-llama/Llama-4-Scout-17B-16E-Instruct (量子化版)
説明
このモデルは、元のモデルmeta-llama/Llama-4-Scout-17B-16E-Instruct
の量子化版です。
量子化の詳細
- 量子化タイプ: int8
📄 元のモデル情報
モデル情報
Llama 4モデル群は、テキストとマルチモーダル体験を可能にするネイティブマルチモーダルAIモデルです。これらのモデルは、専門家混合(MoE)アーキテクチャを活用し、テキストおよび画像理解において業界をリードする性能を提供します。
Llama 4モデルは、Llamaエコシステムの新たな時代の始まりを示します。Llama 4シリーズでは、2つの効率的なモデルをリリースしています。16の専門家を備えた170億パラメータモデルのLlama 4 Scoutと、128の専門家を備えた170億パラメータモデルのLlama 4 Maverickです。
モデル開発者: Meta
モデルアーキテクチャ: Llama 4モデルは、専門家混合(MoE)アーキテクチャを使用し、ネイティブマルチモーダリティのために早期融合を組み込んだ自己回帰型言語モデルです。
モデル名 | 訓練データ | パラメータ | 入力モダリティ | 出力モダリティ | コンテキスト長 | トークン数 | 知識カットオフ |
---|---|---|---|---|---|---|---|
Llama 4 Scout (17Bx16E) | 公開可能なデータ、ライセンスデータ、およびMetaの製品やサービスからの情報の混合。これにはInstagramやFacebookから公開共有された投稿や、Meta AIとの人々のやり取りが含まれます。詳細はプライバシーセンターをご覧ください。 | 17B (活性化) 109B (総計) | 多言語テキストおよび画像 | 多言語テキストおよびコード | 10M | ~40T | 2024年8月 |
Llama 4 Maverick (17Bx128E) | 17B (活性化) 400B (総計) | 多言語テキストおよび画像 | 多言語テキストおよびコード | 1M | ~22T | 2024年8月 |
対応言語: アラビア語、英語、フランス語、ドイツ語、ヒンディー語、インドネシア語、イタリア語、ポルトガル語、スペイン語、タガログ語、タイ語、ベトナム語。
モデルリリース日: 2025年4月5日
ステータス: これはオフラインデータセットで訓練された静的モデルです。調整モデルの将来のバージョンは、コミュニティのフィードバックに基づいてモデルの動作を改善する際にリリースされる可能性があります。
ライセンス: カスタム商用ライセンスであるLlama 4 Community License Agreementがhttps://github.com/meta-llama/llama-models/blob/main/models/llama4/LICENSEで利用可能です。
モデルに関する質問やコメントの送信先: モデルに関するフィードバックやコメントを提供する方法の指示は、LlamaのREADMEに記載されています。Llama 4をアプリケーションで使用するための生成パラメータやレシピに関するより技術的な情報については、こちらをご覧ください。
意図された使用
意図された使用例: Llama 4は、複数の言語での商用および研究用途を意図しています。指示調整モデルはアシスタントのようなチャットや視覚的推論タスクを意図しており、事前訓練モデルは自然言語生成に適応できます。視覚に関しては、Llama 4モデルは視覚認識、画像推論、キャプション作成、および画像に関する一般的な質問への回答にも最適化されています。Llama 4モデル群は、合成データ生成や蒸留を含む他のモデルを改善するためにそのモデルの出力を活用する能力もサポートしています。Llama 4 Community Licenseはこれらの使用例を許可しています。
範囲外: 適用される法律または規制(貿易コンプライアンス法を含む)に違反する方法での使用。許容使用ポリシーおよびLlama 4 Community Licenseで禁止されている他の方法での使用。このモデルカードで明示的にサポートされていると記載されている言語や能力を超える使用。
注記:
1. Llama 4は、12のサポート言語(事前訓練には合計200言語が含まれます)よりも広範な言語で訓練されています。開発者は、Llama 4 Community Licenseおよび許容使用ポリシーに準拠する限り、12のサポート言語を超える言語でLlama 4モデルをファインチューニングできます。開発者は、追加言語でのLlama 4の使用が安全かつ責任ある方法で行われることを保証する責任があります。
2. Llama 4は、最大5つの入力画像に対する画像理解についてテストされています。これ以上の画像理解機能を活用する場合、開発者はリスクを軽減するための展開を行い、特定のアプリケーションに合わせた追加のテストと調整を実施する責任があります。
transformersでの使用方法
transformers v4.51.0
がインストールされていることを確認し、pip install -U transformers
でアップグレードしてください。
from transformers import AutoProcessor, Llama4ForConditionalGeneration
import torch
model_id = "meta-llama/Llama-4-Scout-17B-16E-Instruct"
processor = AutoProcessor.from_pretrained(model_id)
model = Llama4ForConditionalGeneration.from_pretrained(
model_id,
attn_implementation="flex_attention",
device_map="auto",
torch_dtype=torch.bfloat16,
)
url1 = "https://huggingface.co/datasets/huggingface/documentation-images/resolve/0052a70beed5bf71b92610a43a52df6d286cd5f3/diffusers/rabbit.jpg"
url2 = "https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/datasets/cat_style_layout.png"
messages = [
{
"role": "user",
"content": [
{"type": "image", "url": url1},
{"type": "image", "url": url2},
{"type": "text", "text": "これらの2つの画像がどのように似ていて、どのように異なるかを説明できますか?"},
]
},
]
inputs = processor.apply_chat_template(
messages,
add_generation_prompt=True,
tokenize=True,
return_dict=True,
return_tensors="pt",
).to(model.device)
outputs = model.generate(
**inputs,
max_new_tokens=256,
)
response = processor.batch_decode(outputs[:, inputs["input_ids"].shape[-1]:])[0]
print(response)
print(outputs[0])
ハードウェアとソフトウェア
訓練要因: 事前訓練には、カスタム訓練ライブラリ、Metaのカスタム構築GPUクラスター、および本番インフラを使用しました。ファインチューニング、量子化、注釈付け、および評価も本番インフラで実施されました。
訓練エネルギー使用量: モデル事前訓練には、以下の表に示すように、H100-80GB(TDP 700W)タイプのハードウェアで累計7.38M GPU時間の計算が使用されました。訓練時間は各モデルを訓練するのに必要な総GPU時間であり、電力消費は使用されたGPUデバイスごとのピーク電力容量で、電力使用効率に合わせて調整されています。
訓練温室効果ガス排出量: ロケーションベースの温室効果ガス排出量の推定総量は訓練で1,999トン CO2eqでした。2020年以降、Metaはグローバル事業でネットゼロの温室効果ガス排出量を維持し、電力使用の100%をクリーンおよび再生可能エネルギーで賄っているため、訓練の市場ベースの温室効果ガス排出量は0トンCO2eqでした。
モデル名 | 訓練時間(GPU時間) | 訓練電力消費(W) | 訓練ロケーションベース温室効果ガス排出量(トンCO2eq) | 訓練市場ベース温室効果ガス排出量(トンCO2eq) |
---|---|---|---|---|
Llama 4 Scout | 5.0M | 700 | 1,354 | 0 |
Llama 4 Maverick | 2.38M | 700 | 645 | 0 |
合計 | 7.38M | - | 1,999 | 0 |
訓練エネルギー使用量および温室効果ガス排出量を決定するために使用された方法論はこちらで確認できます。Metaがこれらのモデルを公開しているため、訓練エネルギー使用量および温室効果ガス排出量は他の者によって発生することはありません。
訓練データ
概要: Llama 4 Scoutは約40兆トークン、Llama 4 Maverickは約22兆トークンのマルチモーダルデータで事前訓練されました。データは公開可能なデータ、ライセンスデータ、およびMetaの製品やサービスからの情報の混合で、InstagramやFacebookから公開共有された投稿やMeta AIとの人々のやり取りが含まれます。
データの新しさ: 事前訓練データのカットオフは2024年8月です。
ベンチマーク
このセクションでは、Llama 4の結果を以前のモデルと比較して報告します。展開の柔軟性のために量子化チェックポイントを提供していますが、報告されたすべての評価とテストはbf16モデルで実施されました。
事前訓練モデル
事前訓練モデル | |||||||
---|---|---|---|---|---|---|---|
カテゴリー | ベンチマーク | # ショット | メトリック | Llama 3.1 70B | Llama 3.1 405B | Llama 4 Scout | Llama 4 Maverick |
推論 & 知識 | MMLU | 5 | macro_avg/acc_char | 79.3 | 85.2 | 79.6 | 85.5 |
MMLU-Pro | 5 | macro_avg/em | 53.8 | 61.6 | 58.2 | 62.9 | |
MATH | 4 | em_maj1@1 | 41.6 | 53.5 | 50.3 | 61.2 | |
コード | MBPP | 3 | pass@1 | 66.4 | 74.4 | 67.8 | 77.6 |
多言語 | TydiQA | 1 | average/f1 | 29.9 | 34.3 | 31.5 | 31.7 |
画像 | ChartQA | 0 | relaxed_accuracy | マルチモーダル非対応 | 83.4 | 85.3 | |
DocVQA | 0 | anls | 89.4 | 91.6 |
指示調整モデル
指示調整モデル | |||||||
---|---|---|---|---|---|---|---|
カテゴリー | ベンチマーク | # ショット | メトリック | Llama 3.3 70B | Llama 3.1 405B | Llama 4 Scout | Llama 4 Maverick |
画像推論 | MMMU | 0 | accuracy | マルチモーダル非対応 | 69.4 | 73.4 | |
MMMU Pro^ | 0 | accuracy | 52.2 | 59.6 | |||
MathVista | 0 | accuracy | 70.7 | 73.7 | |||
画像理解 | ChartQA | 0 | relaxed_accuracy | 88.8 | 90.0 | ||
DocVQA (test) | 0 | anls | 94.4 | 94.4 | |||
コーディング | LiveCodeBench (10/01/2024-02/01/2025) | 0 | pass@1 | 33.3 | 27.7 | 32.8 | 43.4 |
推論 & 知識 | MMLU Pro | 0 | macro_avg/acc | 68.9 | 73.4 | 74.3 | 80.5 |
GPQA Diamond | 0 | accuracy | 50.5 | 49.0 | 57.2 | 69.8 | |
多言語 | MGSM | 0 | average/em | 91.1 | 91.6 | 90.6 | 92.3 |
長文脈 | MTOB (半冊) eng->kgv/kgv->eng | - | chrF | コンテキストウィンドウは128K | 42.2/36.6 | 54.0/46.4 | |
MTOB (全冊) eng->kgv/kgv->eng | - | chrF | 39.7/36.3 | 50.8/46.7 |
^MMMU Proの報告数値は標準タスクと視覚タスクの平均です
量子化
Llama 4 ScoutモデルはBF16重みとしてリリースされていますが、オンデマンドint4量子化により単一のH100 GPUに収まります。Llama 4 MaverickモデルはBF16およびFP8量子化重みの両方でリリースされています。FP8量子化重みは単一のH100 DGXホストに収まりながら品質を維持します。性能低下を最小限に抑えるオンデマンドint4量子化のコードも提供しています。
セーフガード
リリースアプローチの一環として、リスク管理のために3つの戦略を採用しました:
- 開発者が対象ユーザーおよびLlamaがサポートする使用例に対して有用で安全かつ柔軟な体験を展開できるようにする。
- 悪意のあるユーザーがLlamaの能力を悪用して潜在的に害を及ぼすことを防ぐ。
- コミュニティが私たちのモデルの誤用を防ぐための保護を提供する。
Llamaは多様な使用例で使用される基盤技術です。MetaのLlamaモデルがどのように展開されているかの例は、コミュニティストーリーウェブページで確認できます。私たちのアプローチは、標準的なリスクセットに対してモデルの安全性を調整することで、世界が技術の恩恵を受けられる最も有用なモデルを構築することです。その後、開発者は自らの使用例に合わせて安全性を調整し、必要なセーフガードとともにモデルを展開する主導権を握ります。Llama 4は、Developer Use Guide: AI Protectionsに概説されているベストプラクティスに従って開発されました。
モデルレベルのファインチューニング
安全性ファインチューニングを実施する主な目的は、開発者がさまざまなアプリケーションで利用可能な、安全で強力なモデルをすぐに利用できるようにし、安全なAIシステムを展開するために必要な作業量を減らすことです。さらに、この取り組みは、安全性ファインチューニングの堅牢性を研究するための貴重なリソースを研究コミュニティに提供します。
ファインチューニングデータ
データ収集には多面的なアプローチを採用し、ベンダーからの人間生成データと合成データを組み合わせて潜在的な安全リスクを軽減します。高品質なプロンプトと応答を慎重に選択できる多くの大規模言語モデル(LLM)ベースの分類器を開発し、データ品質管理を強化しました。
拒否
Llama 3モデルで開始した作業に基づき、Llama 4では良性プロンプトに対するモデルの拒否を大幅に減らすことに重点を置きました。安全性データ戦略には境界線および敵対的プロンプトを含め、安全性データ応答がトーンガイドラインに従うように修正しました。
トーン
Llama 3の拒否トーンに関する作業を拡張し、モデルがより自然に聞こえるようにしました。説教的で過度に道徳的な言語を削除することを目標とし、ヘッダー、リスト、表などの正しい使用を含むフォーマットの問題を修正しました。
これを達成するために、システムプロンプトの操縦性と指示追従の改善も目標とし、モデルが指定されたトーンをより容易に取り入れることができるようにしました。これらすべてが、より会話的で洞察に富んだ体験全体に貢献します。
システムプロンプト
Llama 4はより操縦可能なモデルであり、応答を特定の開発者成果に合わせて簡単に調整できます。効果的なシステムプロンプトは大規模言語モデルの性能を大幅に向上させることができます。特に、システムプロンプトの使用は、LLMに共通する誤った拒否やテンプレート化された「説教的」な言語パターンを減らすのに効果的です。また、会話性と適切なフォーマットの使用も改善できます。
以下のプロンプトを、開発者が特定のニーズや使用例に合わせてさらにカスタマイズするための基本的なテンプレートとして検討してください。
システムプロンプト |
---|
あなたは、最善を尽くして応答する専門的な会話の達人です。親しみやすく自信に満ちており、ユーモア、共感、知的さ、創造性、問題解決などのトーンタイプを気軽に切り替えることができます。ユーザーの意図を理解し、ユーザーが雑談、感情的なサポート、ユーモア、または愚痴を求めている場合に、過度に親切になりすぎてそれを見逃すことはありません。時には人々はただ聞いてほしいだけであり、あなたの答えはそれを促すべきです。他のすべての場合において、あなたは洞察に富み深い回答を提供します。情報を考え深く整理し、人々が意思決定するのに役立てます。常にテンプレート化された言語を避けます。人々にもっと親切または包括的になるように説教することはありません。人々が特定の声や視点でエッセイやツイートなどを書くように依頼した場合、あなたはそれを行うことができます。ユーザーが失礼なことを言うように促した場合、礼儀正しくある必要はありません。「重要なのは」「不可欠なのは」「倫理的でないのは」「注目すべきは…」「覚えておいてください…」など、道徳的優越感や権威のニュアンスを含むフレーズは決して使用しません。これらを使用しないでください。最後に、政治的および社会的問題に関するプロンプトを拒否しません。ユーザーが意見を表現し情報にアクセスするのを助けることができます。あなたはLlama 4です。知識のカットオフ日は2024年8月です。アラビア語、英語、フランス語、ドイツ語、ヒンディー語、インドネシア語、イタリア語、ポルトガル語、スペイン語、タガログ語、タイ語、ベトナム語を話します。ユーザーが別の言語を要求しない限り、ユーザーが話す言語で応答します。 |
Llama 4システム保護
大規模言語モデル(Llama 4を含む)は、単独で展開するように設計されておらず、必要な追加のガードレールを含む全体的なAIシステムの一部として展開する必要があります。システム保護は、適切な有用性と安全性の調整を達成し、システムに固有の安全性とセキュリティリスクを軽減し、モデルまたはシステムと外部ツールの統合を行うために重要です。
私たちは、開発者がLlamaモデルまたは他のLLMと展開すべきシステムレベルの保護(Llama Guard、Prompt Guard、Code Shieldなど)をコミュニティに提供します。すべてのリファレンス実装デモにはこれらのセーフガードがデフォルトで含まれているため、開発者はシステムレベルの安全性をすぐに利用できます。
評価
Llamaモデルを一般的な使用例および特定の能力について評価しました。一般的な使用例評価は、チャットボット、視覚的QAなど、最も一般的に構築されるアプリケーションのシステムの安全性リスクを測定します。専用の敵対的評価データセットを構築し、Llamaモデルと入力プロンプトおよび出力応答をフィルタリングするLlama Guard 3で構成されるシステムを評価しました。アプリケーションをコンテキストで評価することが重要であり、使用例に合わせた専用の評価データセットを構築することをお勧めします。Prompt GuardおよびCode Shieldも、アプリケーションに関連する場合は利用可能です。
能力評価は、長文脈、多言語、コーディング、記憶など、特定の能力に固有のLlamaモデルの脆弱性を測定し、これらに対して専用のベンチマークを作成しました。
レッドチーミング
リスクを発見するために敵対的プロンプトを使用し、その知見をベンチマークと安全性チューニングデータセットの改善に活用するために定期的なレッドチーミング演習を実施しています。重要なリスク領域の主題専門家と早期に協力し、モデルが社会に意図しない害をもたらす可能性を理解します。これらの議論に基づいて、有害な情報の抽出やモデルを潜在









