モデル概要
モデル特徴
モデル能力
使用事例
🚀 Llama 4モデル
Llama 4シリーズモデルは、ネイティブなマルチモーダルAIモデルで、テキストとマルチモーダルの対話体験をサポートしています。これらのモデルはハイブリッドエキスパートアーキテクチャを採用しており、テキストと画像の理解において優れた性能を発揮し、Llamaエコシステムに新たな章を切り開きます。
🚀 クイックスタート
依存関係のインストール
transformers v4.51.0
がインストールされていることを確認してください。インストールされていない場合は、以下のコマンドを使用してアップグレードできます。
pip install -U transformers
💻 使用例
基本的な使用法
from transformers import AutoProcessor, Llama4ForConditionalGeneration
import torch
model_id = "meta-llama/Llama-4-Scout-17B-16E-Instruct"
processor = AutoProcessor.from_pretrained(model_id)
model = Llama4ForConditionalGeneration.from_pretrained(
model_id,
attn_implementation="flex_attention",
device_map="auto",
torch_dtype=torch.bfloat16,
)
url1 = "https://huggingface.co/datasets/huggingface/documentation-images/resolve/0052a70beed5bf71b92610a43a52df6d286cd5f3/diffusers/rabbit.jpg"
url2 = "https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/datasets/cat_style_layout.png"
messages = [
{
"role": "user",
"content": [
{"type": "image", "url": url1},
{"type": "image", "url": url2},
{"type": "text", "text": "Can you describe how these two images are similar, and how they differ?"},
]
},
]
inputs = processor.apply_chat_template(
messages,
add_generation_prompt=True,
tokenize=True,
return_dict=True,
return_tensors="pt",
).to(model.device)
outputs = model.generate(
**inputs,
max_new_tokens=256,
)
response = processor.batch_decode(outputs[:, inputs["input_ids"].shape[-1]:])[0]
print(response)
print(outputs[0])
✨ 主な機能
- マルチモーダル体験:ネイティブでテキストとマルチモーダルの対話をサポートし、より豊富な使用シーンを提供します。
- ハイブリッドエキスパートアーキテクチャ:ハイブリッドエキスパート(MoE)アーキテクチャを採用し、テキストと画像の理解において卓越した性能を発揮します。
- 高効率モデル:Llama 4 ScoutとLlama 4 Maverickの2つの高効率モデルを提供し、さまざまなニーズに対応します。
📦 インストール
transformers v4.51.0
がインストールされていることを確認してください。インストールされていない場合は、以下のコマンドを使用してアップグレードできます。
pip install -U transformers
📚 ドキュメント
モデル情報
属性 | 詳細 |
---|---|
モデル開発者 | Meta |
モデルアーキテクチャ | Llama 4モデルは自己回帰型言語モデルで、ハイブリッドエキスパート(MoE)アーキテクチャを採用し、早期融合を組み合わせてネイティブなマルチモーダルを実現しています。 |
サポート言語 | アラビア語、英語、フランス語、ドイツ語、ヒンディー語、インドネシア語、イタリア語、ポルトガル語、スペイン語、タガログ語、タイ語、ベトナム語 |
モデル公開日 | 2025年4月5日 |
状態 | これはオフラインデータセットを使って訓練された静的モデルです。コミュニティからのフィードバックを元にモデルの挙動を改善するにつれて、将来的に調整されたバージョンがリリースされる可能性があります。 |
ライセンス | カスタム商用ライセンス、Llama 4コミュニティライセンス契約。詳細は https://github.com/meta-llama/llama-models/blob/main/models/llama4/LICENSE を参照してください。 |
フィードバックチャネル | モデルに関するフィードバックやコメントは、Llamaの README で確認できます。生成パラメータやLlama 4をアプリケーションで使用する方法に関する詳細な技術情報は、こちら を参照してください。 |
モデルパラメータ
モデル名 | 訓練データ | パラメータ | 入力モード | 出力モード | コンテキスト長 | トークン数 | 知識の締め切り日 |
---|---|---|---|---|---|---|---|
Llama 4 Scout (17Bx16E) | 公開されているデータ、ライセンス付きデータ、およびMetaの製品やサービスの情報。InstagramやFacebookの公開投稿、人々とMeta AIの対話が含まれます。詳細は プライバシーセンター を参照してください。 | 活性化:17B 合計:109B |
多言語テキストと画像 | 多言語テキストとコード | 10M | ~40T | 2024年8月 |
Llama 4 Maverick (17Bx128E) | 同上 | 活性化:17B 合計:400B |
多言語テキストと画像 | 多言語テキストとコード | 1M | ~22T | 2024年8月 |
想定用途
- 想定されるユースケース:Llama 4は、複数の言語での商用および研究用途に適しています。命令調整モデルは、アシスタントのようなチャットや視覚的推論タスクに適しており、事前学習モデルは自然言語生成に使用できます。視覚的な面では、Llama 4モデルは視覚認識、画像推論、画像記述、画像に関する一般的な質問への回答にも最適化されています。Llama 4モデルシリーズは、そのモデル出力を利用して他のモデルを改善することもサポートしており、合成データ生成や蒸留が含まれます。Llama 4コミュニティライセンスではこれらのユースケースが許可されています。
- 想定外の用途:適用される法律や規制(貿易コンプライアンス法律を含む)に違反する方法での使用。許容できる使用ポリシーやLlama 4コミュニティライセンスに違反する方法での使用。このモデルカードで明示的にサポートされていない言語や機能範囲での使用。
ハードウェアとソフトウェア
- 訓練要因:カスタム訓練ライブラリ、Meta独自のGPUクラスター、および本番環境インフラストラクチャを使用して事前学習を行っています。微調整、量子化、アノテーション、評価も本番環境インフラストラクチャで行われます。
- 訓練エネルギー消費:モデルの事前学習には、H100 - 80GB(TDP 700W)タイプのハードウェアを使用し、合計で 738万 GPU時間の計算リソースを消費しました。詳細は下表を参照してください。訓練時間は各モデルの訓練に必要な総GPU時間で、消費電力は各GPUデバイスの最大電力容量で、電源使用効率に応じて調整されています。 | モデル名 | 訓練時間(GPU時間) | 訓練消費電力(W) | 位置ベースの訓練温室効果ガス排出量(CO2eqトン) | 市場ベースの訓練温室効果ガス排出量(CO2eqトン) | | ---- | ---- | ---- | ---- | ---- | | Llama 4 Scout | 500万 | 700 | 1354 | 0 | | Llama 4 Maverick | 238万 | 700 | 645 | 0 | | 合計 | 738万 | - | 1999 | 0 |
訓練データ
- 概要:Llama 4 Scoutは約40兆トークンのマルチモーダルデータで事前学習され、Llama 4 Maverickは約22兆トークンのマルチモーダルデータで事前学習されています。これらのデータは、公開されているデータ、ライセンス付きデータ、およびMetaの製品やサービスの情報から収集されており、InstagramやFacebookの公開投稿、人々とMeta AIの対話が含まれます。
- データの新鮮さ:事前学習データの締め切り日は2024年8月です。
ベンチマークテスト
事前学習モデル
事前学習モデル | カテゴリ | ベンチマークテスト | サンプル数 | 指標 | Llama 3.1 70B | Llama 3.1 405B | Llama 4 Scout | Llama 4 Maverick |
---|---|---|---|---|---|---|---|---|
推論と知識 | MMLU | 5 | macro_avg/acc_char | 79.3 | 85.2 | 79.6 | 85.5 | |
MMLU - Pro | 5 | macro_avg/em | 53.8 | 61.6 | 58.2 | 62.9 | ||
MATH | 4 | em_maj1@1 | 41.6 | 53.5 | 50.3 | 61.2 | ||
コード | MBPP | 3 | pass@1 | 66.4 | 74.4 | 67.8 | 77.6 | |
多言語 | TydiQA | 1 | average/f1 | 29.9 | 34.3 | 31.5 | 31.7 | |
画像 | ChartQA | 0 | relaxed_accuracy | マルチモーダル非対応 | 83.4 | 85.3 | ||
DocVQA | 0 | anls | 89.4 | 91.6 |
命令調整モデル
命令調整モデル | カテゴリ | ベンチマークテスト | サンプル数 | 指標 | Llama 3.3 70B | Llama 3.1 405B | Llama 4 Scout | Llama 4 Maverick |
---|---|---|---|---|---|---|---|---|
画像推論 | MMMU | 0 | 正解率 | マルチモーダル非対応 | 69.4 | 73.4 | ||
MMMU Pro^ | 0 | 正解率 | 52.2 | 59.6 | ||||
MathVista | 0 | 正解率 | 70.7 | 73.7 | ||||
画像理解 | ChartQA | 0 | relaxed_accuracy | 88.8 | 90.0 | |||
DocVQA (テスト) | 0 | anls | 94.4 | 94.4 | ||||
コード | LiveCodeBench (2024年10月1日 - 2025年2月1日) | 0 | pass@1 | 33.3 | 27.7 | 32.8 | 43.4 | |
推論と知識 | MMLU Pro | 0 | macro_avg/acc | 68.9 | 73.4 | 74.3 | 80.5 | |
GPQA Diamond | 0 | 正解率 | 50.5 | 49.0 | 57.2 | 69.8 | ||
多言語 | MGSM | 0 | average/em | 91.1 | 91.6 | 90.6 | 92.3 | |
長文脈 | MTOB (半分の本) eng->kgv/kgv->eng | - | chrF | コンテキストウィンドウ128K | 42.2/36.6 | 54.0/46.4 | ||
MTOB (全本) eng->kgv/kgv->eng | - | chrF | 39.7/36.3 | 50.8/46.7 |
^MMMU Proで報告された数値は、標準タスクと視覚タスクの平均値です。
量子化
Llama 4 ScoutモデルはBF16重みでリリースされていますが、即時int4量子化により単一のH100 GPUに適合させることができます。Llama 4 MaverickモデルはBF16とFP8量子化重みでリリースされています。FP8量子化重みは、単一のH100 DGXホストで実行でき、品質を維持します。即時int4量子化のコードを提供しており、性能の損失を最小限に抑えます。
🔧 技術詳細
訓練要因
カスタム訓練ライブラリ、Meta独自のGPUクラスター、および本番環境インフラストラクチャを使用して事前学習を行っています。微調整、量子化、アノテーション、評価も本番環境インフラストラクチャで行われます。
訓練エネルギー消費
モデルの事前学習には、H100 - 80GB(TDP 700W)タイプのハードウェアを使用し、合計で 738万 GPU時間の計算リソースを消費しました。詳細は下表を参照してください。訓練時間は各モデルの訓練に必要な総GPU時間で、消費電力は各GPUデバイスの最大電力容量で、電源使用効率に応じて調整されています。
モデル名 | 訓練時間(GPU時間) | 訓練消費電力(W) | 位置ベースの訓練温室効果ガス排出量(CO2eqトン) | 市場ベースの訓練温室効果ガス排出量(CO2eqトン) |
---|---|---|---|---|
Llama 4 Scout | 500万 | 700 | 1354 | 0 |
Llama 4 Maverick | 238万 | 700 | 645 | 0 |
合計 | 738万 | - | 1999 | 0 |
量子化
Llama 4 ScoutモデルはBF16重みでリリースされていますが、即時int4量子化により単一のH100 GPUに適合させることができます。Llama 4 MaverickモデルはBF16とFP8量子化重みでリリースされています。FP8量子化重みは、単一のH100 DGXホストで実行でき、品質を維持します。即時int4量子化のコードを提供しており、性能の損失を最小限に抑えます。
📄 ライセンス
このモデルはカスタム商用ライセンス、Llama 4コミュニティライセンス契約の下で提供されています。詳細は https://github.com/meta-llama/llama-models/blob/main/models/llama4/LICENSE を参照してください。
Llama 4コミュニティライセンス契約
以下の「同意する」をクリックするか、Llama素材の一部または要素を使用または配布することで、本契約に拘束されることに同意したことになります。
1. ライセンス権利と再配布
- 権利の付与:あなたには、Metaが所有する知的財産権またはその他の権利の範囲内で、Llama素材を使用、複製、配布、コピー、派生作品を作成し、修正するための非排他的、世界規模、譲渡不可、無料の限定的ライセンスが付与されます。
- 再配布と使用:
- Llama素材(またはその派生作品)、またはその内容を含む製品やサービス(他のAIモデルを含む)を配布または提供する場合、(A)そのようなLlama素材とともに本契約のコピーを提供する必要があります。(B)関連するウェブサイト、ユーザーインターフェイス、ブログ記事、アバウトページ、または製品ドキュメントに「Built with Llama」を目立つように表示する必要があります。Llama素材またはその出力や結果を使用してAIモデルを作成、訓練、微調整、またはその他の方法で改善し、配布または提供する場合は、そのようなAIモデルの名前の先頭に「Llama」を含める必要があります。
- 統合された最終ユーザー製品の一部としてライセンシーからLlama素材またはその派生作品を受け取る場合は、本契約の第2条はあなたに適用されません。
- 配布するすべてのLlama素材のコピーには、そのコピーの一部として配布される「Notice」テキストファイルに、以下の帰属声明を含める必要があります。「Llama 4 is licensed under the Llama 4 Community License, Copyright © Meta Platforms, Inc. All Rights Reserved.」
- Llama素材の使用は、適用される法律や規制(貿易コンプライアンスの法律や規制を含む)に従い、Llama素材の許容できる使用ポリシー(https://www.llama.com/llama4/use-policy で確認できます)に従う必要があります。このポリシーは本契約に組み込まれています。
2. 追加の商用条項
Llama 4バージョンのリリース日に、ライセンシーまたはその関連会社が提供する製品またはサービスの月間アクティブユーザーが前の暦月に7億を超える場合、あなたはMetaにライセンスを申請する必要があります。Metaは独自の判断でライセンスを付与するかどうかを決定します。Metaが明示的にそのような権利を付与するまで、あなたは本契約に基づくいかなる権利も行使することができません。
3. 保証の否認
適用される法律が要求する場合を除き、Llama素材およびその出力や結果は「現状のまま」提供され、いかなる形式の保証も伴いません。Metaは、所有権、非侵害、適銷性、または特定の用途への適合性を含むすべての明示および暗示の保証を明確に否認します。あなたは、Llama素材の使用または再配布の適切性を独自に判断し、Llama素材およびその出力や結果の使用に関連するすべてのリスクを負います。
4. 責任の制限
いかなる場合も、Metaまたはその関連会社は、本契約に起因する利益の損失、または間接的、特殊的、結果的、偶発的、例示的、または懲罰的な損害に対して責任を負いません。責任理論(契約、不法行為、過失、製品責任など)に関係なく、Metaまたはその関連会社がそのような損害の可能性を知っていた場合でも同様です。
5. 知的財産
- 商標ライセンス:本契約では商標ライセンスは付与されません。Llama素材に関連して、Llama素材の説明や再配布において合理的かつ慣習的に必要な場合、または本节5(a)で説明されている場合を除き、Metaおよびライセンシーは、相手またはその関連会社が所有または関連するいかなる名称またはマークも使用することはできません。Metaは、第1.b.i条の最後の文を遵守するために必要な範囲でのみ、「Llama」(「マーク」)の使用許可をあなたに付与します。あなたは、Metaのブランドガイドライン(現在は https://about.meta.com/brand/resources/meta/company-brand/ でアクセスできます)に従う必要があります。マークの使用によって生じるすべての信頼性はMetaに帰属します。
- 派生作品の所有権:MetaがLlama素材およびMetaまたはMetaを代表して作成された派生作品を所有する前提で、あなたが作成したLlama素材の派生作品および修正については、あなたがそれらの派生作品および修正の所有者であり、引き続き所有者であることになります。
- 侵害訴訟:あなたがMetaまたは任意の実体(訴訟における交差請求または反訴を含む)に対して、Llama素材またはLlama 4の出力や結果、またはその一部があなたが所有またはライセンスを取得できる知的財産権またはその他の権利を侵害していると主張する訴訟またはその他の手続きを起こす場合、本契約に基づいてあなたに付与されたすべてのライセンスは、そのような訴訟または請求が提起された日から終了します。あなたは、Llama素材の使用または配布に起因する、またはそれに関連するすべての第三者の請求からMetaを補償し、免責する責任があります。
6. 期間と終了
本契約は、あなたが本契約を受け入れるか、Llama素材にアクセスする日から有効になり、本契約の条項および条件に基づいて終了するまで有効です。あなたが本契約のいずれかの条項または条件に違反した場合、Metaは本契約を終了させることができます。本契約が終了した後、あなたはLlama素材を削除し、使用を停止する必要があります。第3、4、および7条は、本契約の終了後も有効です。
7. 適用法律と管轄権
本契約は、カリフォルニア州の法律に準拠し、解釈されます。法律選択原則は考慮されません。国際連合国際商品売買契約条約は本契約に適用されません。カリフォルニア州の裁判所は、本契約に起因するすべての紛争に対して排他的な管轄権を有します。









