Llama 3.2 1B Instruct GGUF
モデル概要
モデル特徴
モデル能力
使用事例
language:
-
en
-
de
-
fr
-
it
-
pt
-
hi
-
es
-
th library_name: transformers pipeline_tag: text-generation tags:
-
facebook
-
meta
-
pytorch
-
llama
-
llama-3 license: llama3.2 extra_gated_prompt: >-
LLAMA 3.2 コミュニティライセンス契約
Llama 3.2 バージョンリリース日: 2024年9月25日
「本契約」とは、Llama素材の使用、複製、頒布および改変に関する本契約に定める条件を意味します。
「ドキュメンテーション」とは、Metaがhttps://llama.meta.com/doc/overviewで配布するLlama 3.2に付随する仕様書、マニュアルおよびドキュメンテーションを意味します。
「ライセンシー」または「あなた」とは、適用される法律、規則または規制の下で法的同意を提供するのに必要な年齢に達しており、本契約を締結する権限を有する、あなた、あなたの雇用主またはその他の個人または団体(あなたがそのような個人または団体に代わって本契約を締結する場合)を意味します。
「Llama 3.2」とは、基礎となる大規模言語モデルおよびソフトウェアとアルゴリズム(機械学習モデルコード、訓練済みモデル重み、推論を可能にするコード、訓練を可能にするコード、ファインチューニングを可能にするコード、その他の要素を含む)を意味し、Metaがhttps://www.llama.com/llama-downloadsで配布するものです。
「Llama素材」とは、本契約の下で利用可能となるMetaの独自のLlama 3.2およびドキュメンテーション(およびその一部)を総称して意味します。
「Meta」または「当社」とは、Meta Platforms Ireland Limited(あなたがEEAまたはスイスに所在している場合、または団体の場合、主要な事業所がEEAまたはスイスにある場合)およびMeta Platforms, Inc.(あなたがEEAまたはスイスの外に所在している場合)を意味します。
下記の「同意する」をクリックするか、Llama素材のいかなる部分または要素を使用または頒布することにより、あなたは本契約に拘束されることに同意したものとみなされます。
- ライセンス権利および再頒布
a. 権利の付与。あなたは、Llama素材に具現化されたMetaの知的財産またはその他の権利に基づき、Llama素材を使用、複製、頒布、複写、派生作品の作成および改変を行うための非独占的、世界的、非譲渡的かつロイヤリティフリーの限定ライセンスを付与されます。
b. 再頒布および使用。
i. あなたがLlama素材(またはその派生作品)、またはそれらを含む製品またはサービス(他のAIモデルを含む)を頒布または利用可能にする場合、あなたは(A)そのようなLlama素材に本契約の写しを添付すること、および(B)関連するウェブサイト、ユーザーインターフェース、ブログ記事、アバウトページ、または製品ドキュメンテーションに「Built with Llama」を目立つように表示するものとします。あなたがLlama素材またはLlama素材の出力または結果を使用して、頒布または利用可能となるAIモデルを作成、訓練、ファインチューニング、またはその他の方法で改善する場合、そのようなAIモデル名の冒頭に「Llama」を含めるものとします。
ii. あなたが統合されたエンドユーザー製品の一部としてライセンシーからLlama素材またはその派生作品を受領する場合、本契約の第2条はあなたには適用されません。
iii. あなたが頒布するLlama素材のすべてのコピーに、そのようなコピーの一部として頒布される「Notice」テキストファイル内に以下の帰属表示を保持する必要があります: 「Llama 3.2はLlama 3.2 Community Licenseの下でライセンスされており、Copyright © Meta Platforms, Inc. All Rights Reserved.」
iv. あなたのLlama素材の使用は、適用される法律および規制(貿易コンプライアンス法および規制を含む)に準拠し、Llama素材の許容使用ポリシー(https://www.llama.com/llama3_2/use-policyで利用可能)を遵守する必要があります。この許容使用ポリシーは、本契約に参照により組み込まれます。
-
追加の商業的条件。Llama 3.2バージョンのリリース日において、ライセンシーまたはライセンシーの関連会社によって利用可能とされる製品またはサービスの月間アクティブユーザーが前暦月において7億人を超える場合、あなたはMetaからライセンスを請求する必要があります。Metaはその単独の裁量でこれを付与する場合があり、Metaが明示的にそのような権利を付与しない限り、あなたは本契約の下でのいかなる権利も行使する権限を有しません。
-
保証の免責。適用される法律で要求されない限り、Llama素材およびそれからの出力と結果は「現状有姿」で提供され、いかなる種類の保証もなく、Metaは、明示的または黙示的を問わず、所有権、非侵害、商品性または特定の目的への適合性の保証を含む(ただしこれらに限定されない)すべての保証を否認します。あなたは、Llama素材の使用または再頒布の適切性を独自に判断する責任を負い、Llama素材およびその出力と結果の使用に関連するすべてのリスクを負担するものとします。
-
責任の制限。いかなる場合でも、Metaまたはその関連会社は、契約、不法行為、過失、製品責任その他のいかなる責任理論の下でも、本契約に起因して、逸失利益または間接的、特別、結果的、付随的、懲罰的または例示的損害について責任を負わないものとします。Metaまたはその関連会社がそのような損害の可能性について知らされていた場合でも同様です。
-
知的財産。
a. 本契約の下では商標ライセンスは付与されず、Llama素材に関連して、Metaもライセンシーも、Llama素材の記述および再頒布における合理的かつ慣習的な使用に必要な場合または本第5条(a)に定める場合を除き、相手方またはその関連会社が所有または関連付けるいかなる名称または商標も使用してはなりません。Metaはここに、第1条(b)(i)の最後の文を遵守するために必要な範囲でのみ「Llama」(「商標」)を使用するライセンスをあなたに付与します。あなたはMetaのブランドガイドライン(現在https://about.meta.com/brand/resources/meta/company-brand/でアクセス可能)を遵守するものとします。商標の使用から生じるすべての信用はMetaに帰属します。
b. MetaがLlama素材およびMetaが作成または作成させた派生作品を所有することを条件として、あなたが作成したLlama素材の派生作品および改変に関しては、あなたとMetaの間で、あなたがそのような派生作品および改変の所有者であるものとします。
c. あなたが、Llama素材またはLlama 3.2の出力または結果、またはそのいずれかの一部が、あなたが所有またはライセンス可能な知的財産またはその他の権利の侵害を構成すると主張して、Metaまたはいかなる団体(訴訟における交叉請求または反訴を含む)に対して訴訟またはその他の手続きを提起する場合、本契約の下であなたに付与されたすべてのライセンスは、そのような訴訟または請求が提起または開始された日をもって終了します。あなたは、Llama素材の使用または頒布に起因または関連して第三者から提起されたいかなる請求からもMetaを免責し、保護するものとします。
-
期間および終了。本契約の期間は、あなたが本契約を受諾した時またはLlama素材にアクセスした時に開始し、本契約の条件に従って終了するまで完全な効力を有します。Metaは、あなたが本契約のいかなる条件に違反した場合、本契約を終了することができます。本契約の終了時、あなたはLlama素材の使用を停止し、削除するものとします。第3条、第4条および第7条は、本契約の終了後も存続します。
-
準拠法および管轄。本契約は、カリフォルニア州の法律に準拠し、その法律に従って解釈されるものとし、国際物品売買契約に関する国際連合条約は本契約には適用されません。本契約から生じるいかなる紛争についても、カリフォルニア州の裁判所が専属的管轄権を有します。
Llama 3.2 許容使用ポリシー
Metaは、Llama 3.2を含むそのツールと機能の安全かつ公正な使用を促進することに取り組んでいます。 Llama 3.2にアクセスまたは使用する場合、あなたはこの許容使用ポリシー(「ポリシー」)に同意したものとみなされます。 このポリシーの最新版は https://www.llama.com/llama3_2/use-policyで確認できます。
禁止される使用
私たちは、誰もがLlama 3.2を安全かつ責任を持って使用することを望んでいます。あなたは、Llama 3.2を以下の目的で使用したり、他の人に使用させたりしないことに同意します:
-
法律または他人の権利を侵害する行為、以下を含む:
- 以下のような違法または不法な活動またはコンテンツに関与、促進、生成、貢献、奨励、計画、扇動、または助長すること:
- 暴力またはテロリズム
- 児童の搾取または危害(児童性的虐待コンテンツの勧誘、作成、取得、または頒布、または児童性的虐待素材の報告義務の不履行を含む)
- 人身売買、搾取、および性的暴力
- 未成年者への情報または資料の違法な頒布(わいせつな資料を含む)、またはそのような情報または資料に関連して法律で要求される年齢制限を実施しないこと
- 性的勧誘
- その他の犯罪行為
- 個人または個人のグループに対する嫌がらせ、虐待、脅迫、またはいじめに関与、促進、扇動、または助長すること
- 雇用、雇用福利厚生、信用、住宅、その他の経済的利益、またはその他の必須の商品およびサービスの提供において、差別またはその他の違法または有害な行為に関与、促進、扇動、または助長すること
- 金融、法律、医療/健康、または関連する専門職を含む(ただしこれらに限定されない)いかなる職業の無許可または無免許の実践に関与すること
- 個人の身元、健康、または人口統計情報を含む個人に関する私的または機密情報を、適用される法律に従ってその権利を取得していない限り、収集、処理、開示、生成、または推論すること
- 第三者の権利(Llama素材を使用した製品またはサービスの出力または結果を含む)を侵害、不正流用、またはその他の方法で侵害するいかなる行為に関与または助長すること、またはそのようなコンテンツを生成すること
- マルウェア、コンピュータウイルスを含む悪意のあるコードを作成、生成、または助長すること、またはウェブサイトまたはコンピュータシステムの適切な動作、完全性、操作または外観を無効化、過負荷、妨害、または損なういかなる行為を行うこと
- 使用制限またはその他の安全対策を意図的に回避または削除する行為、またはMetaによって無効化された機能を有効にする行為に関与または助長すること
- 以下のような違法または不法な活動またはコンテンツに関与、促進、生成、貢献、奨励、計画、扇動、または助長すること:
-
個人に死亡または身体的危害のリスクをもたらす活動に関与、促進、扇動、助長、または計画に関与すること、Llama 3.2を以下に関連して使用すること: 8. 軍事、戦争、核産業または用途、スパイ活動、米国国務省が維持する国際武器取引規則(ITAR)または米国生物兵器対テロリズム法(1989年)または化学兵器禁止条約実施法(1997年)の対象となる資料または活動 9. 銃器および違法な武器(武器開発を含む) 10. 違法薬物および規制/管理物質 11. 重要インフラ、輸送技術、または重機械の運用 12. 自傷行為または他人への危害(自殺、自傷、摂食障害を含む) 13. 個人に対する暴力、虐待、または身体的危害を扇動または促進することを意図したコンテンツ
-
他人を意図的に欺くまたは誤解させる行為、Llama 3.2を以下に関連して使用すること: 14. 詐欺または偽情報の作成または促進を生成、促進、または助長すること 15. 中傷的なコンテンツ(中傷的な声明、画像、またはその他のコンテンツの作成を含む)を生成、促進、または助長すること 16. スパムを生成、促進、または頒布すること 17. 同意、許可、または法的権限なしに他の個人を偽装すること 18. Llama 3.2またはその出力が人間によって生成されたものであると表示すること 19. 偽のオンラインエンゲージメント(偽のレビューおよびその他の偽のオンラインエンゲージメントの手段を含む)を生成または助長すること
-
あなたのAIシステムの既知の危険性をエンドユーザーに適切に開示しないこと
-
違法なコンテンツを生成する、または違法または有害な行為に関与するように設計された第三者ツール、モデル、またはソフトウェアと相互作用し、そのようなツール、モデル、またはソフトウェアの出力がMetaまたはLlama 3.2に関連していると表示すること
Llama 3.2に含まれるマルチモーダルモデルに関しては、欧州連合に居住する個人または主要な事業所を欧州連合に置く企業の場合、Llama 3.2 Community License Agreementの第1条(a)に基づく権利は付与されません。この制限は、そのようなマルチモーダルモデルを組み込んだ製品またはサービスのエンドユーザーには適用されません。
このポリシーに違反する行為、ソフトウェアの「バグ」、またはこのポリシーに違反する可能性のあるその他の問題を以下のいずれかの方法で報告してください:
-
モデルに関する問題の報告: https://github.com/meta-llama/llama-models/issues
-
モデルによって生成された危険なコンテンツの報告: developers.facebook.com/llama_output_feedback
-
バグおよびセキュリティ上の懸念の報告: facebook.com/whitehat/info
-
許容使用ポリシーに違反する行為またはLlama 3.2の無許可使用の報告: LlamaUseReport@meta.com extra_gated_fields: 名: text 姓: text 生年月日: date_picker 国: country 所属: text 職種: type: select options:
- 学生
- 大学院生
- AI研究者
- AI開発者/エンジニア
- レポーター
- その他 geo: ip_location 下記の「送信」をクリックすることで、ライセンス条件に同意し、提供する情報がMetaプライバシーポリシーに従って収集、保存、処理、共有されることを確認します: checkbox extra_gated_description: >- 提供いただいた情報は、Metaプライバシーポリシーに従って収集、保存、処理、共有されます。 extra_gated_button_content: 送信
Llama-3.2-1B-Instruct GGUFモデル
適切なモデルフォーマットの選択
適切なモデルフォーマットの選択は、ハードウェアの性能とメモリ制約に依存します。
BF16(Brain Float 16)– BF16アクセラレーションが利用可能な場合に使用
- 高速な計算を可能にしつつ、良好な精度を維持する16ビット浮動小数点フォーマット。
- FP32と同様の動的範囲を提供しつつ、メモリ使用量を削減。
- BF16アクセラレーションをサポートするハードウェア(デバイスの仕様を確認)に推奨。
- FP32と比較してメモリフットプリントを削減しつつ、高性能な推論に最適。
📌 BF16を使用する場合:
✔ ハードウェアがBF16をネイティブサポート(例: 新しいGPU、TPU)。
✔ より高い精度が必要で、メモリを節約したい場合。
✔ モデルを別のフォーマットに再量子化する予定がある場合。
📌 BF16を避ける場合:
❌ ハードウェアがBF16をサポートしていない(FP32にフォールバックし、遅くなる可能性あり)。
❌ BF16最適化がない古いデバイスとの互換性が必要な場合。
F16(Float 16)– BF16より広くサポート
- 16ビット浮動小数点で高精度だが、BF16より値の範囲が狭い。
- FP16アクセラレーションをサポートするほとんどのデバイス(多くのGPUや一部のCPU)で動作。
- BF16より若干精度は低いが、一般的に推論には十分。
📌 F16を使用する場合:
✔ ハードウェアがFP16をサポートしているが、BF16はサポートしていない場合。
✔ 速度、メモリ使用量、精度のバランスが必要な場合。
✔ GPUまたはFP16計算に最適化されたデバイスで実行する場合。
📌 F16を避ける場合:
❌ デバイスがネイティブFP16サポートを欠く(期待より遅くなる可能性あり)。
❌ メモリ制約がある場合。
量子化モデル(Q4_K、Q6_K、Q8など)– CPU & 低VRAM推論用
量子化はモデルサイズとメモリ使用量を削減しつつ、可能な限り精度を維持します。
- 低ビットモデル(Q4_K) → メモリ使用量最小、精度は低め。
- 高ビットモデル(Q6_K、Q8_0) → 精度向上、より多くのメモリを必要。
📌 量子化モデルを使用する場合:
✔ CPUで推論を実行し、最適化されたモデルが必要な場合。
✔ デバイスのVRAMが低く、フル精度モデルをロードできない場合。
✔ メモリフットプリントを削減しつつ、合理的な精度を維持したい場合。
📌 量子化モデルを避ける場合:
❌ 最大精度が必要な場合(フル精度モデルが優れている)。
❌ ハードウェアに高精度フォーマット(BF16/F16)用の十分なVRAMがある場合。
超低ビット量子化(IQ3_XS、IQ3_S、IQ3_M、Q4_K、Q4_0)
これらのモデルは極端なメモリ効率のために最適化されており、低電力デバイスやメモリが重大な制約となる大規模展開に最適。
-
IQ3_XS: 超低ビット量子化(3ビット)で極端なメモリ効率。
- 使用例: 超低メモリデバイスでQ4_Kでも大きすぎる場合。
- トレードオフ: 高ビット量子化より精度が低い。
-
IQ3_S: 最大のメモリ効率のための小ブロックサイズ。
- 使用例: IQ3_XSが過度に攻撃的となる低メモリデバイスに最適。
-
IQ3_M: IQ3_Sより良い精度のための中ブロックサイズ。
- 使用例: IQ3_Sが制限的となる低メモリデバイスに適している。
-
Q4_K: ブロック単位最適化による4ビット量子化で精度向上。
- 使用例: Q6_Kが大きすぎる低メモリデバイスに最適。
-
Q4_0: ARMデバイス向けに最適化された純粋な4ビット量子化。
- 使用例: ARMベースデバイスまたは低メモリ環境に最適。
要約表: モデルフォーマット選択
モデルフォーマット | 精度 | メモリ使用量 | デバイス要件 | 最適な使用例 |
---|---|---|---|---|
BF16 | 最高 | 高 | BF16対応GPU/CPU | メモリ削減した高速推論 |
F16 | 高 | 高 | FP16対応デバイス | BF16が利用できない場合のGPU推論 |
Q4_K | 中低 | 低 | CPUまたは低VRAMデバイス | メモリ制約環境に最適 |
Q6_K | 中 | 中 | より多くのメモリを備えたCPU | 量子化されつつ精度向上 |
Q8_0 | 高 | 中 | 十分なVRAMを備えたCPU/GPU | 量子化モデル中最も高精度 |
IQ3_XS | 極低 | 極低 | 超低メモリデバイス | 極端なメモリ効率と低精度 |
Q4_0 | 低 | 低 | ARMまたは低メモリデバイス | llama.cppがARMデバイス向けに最適化 |
含まれるファイルと詳細
Llama-3.2-1B-Instruct-bf16.gguf
- BF16で保存されたモデル重み。
- モデルを別のフォーマットに再量子化したい場合に使用。
- デバイスがBF16アクセラレーションをサポートしている場合に最適。
Llama-3.2-1B-Instruct-f16.gguf
- F16で保存されたモデル重み。
- FP16をサポートするデバイス、特にBF16が利用できない場合に使用。
Llama-3.2-1B-Instruct-bf16-q8_0.gguf
- 出力&埋め込みはBF16のまま。
- その他の層はQ8_0に量子化。
- デバイスがBF16をサポートし、量子化版が必要な場合に使用。
Llama-3.2-1B-Instruct-f16-q8_0.gguf
- 出力&埋め込みはF16のまま。
- その他の層はQ8_0に量子化。
Llama-3.2-1B-Instruct-q4_k.gguf
- 出力&埋め込みはQ8_0に量子化。
- その他の層はQ4_Kに量子化。
- メモリ制限のあるCPU推論に適している。
Llama-3.2-1B-Instruct-q4_k_s.gguf
- 最小のQ4_Kバリアントで、精度を犠牲にしてメモリ使用量を削減。
- 極低メモリ環境に最適。
Llama-3.2-1B-Instruct-q6_k.gguf
- 出力&埋め込みはQ8_0に量子化。
- その他の層はQ6_Kに量子化。
Llama-3.2-1B-Instruct-q8_0.gguf
- 完全なQ8量子化モデルで、より高精度。
- より多くのメモリを必要とするが、高精度を提供。
Llama-3.2-1B-Instruct-iq3_xs.gguf
- IQ3_XS量子化、極端なメモリ効率に最適化。
- 超低メモリデバイスに最適。
Llama-3.2-1B-Instruct-iq3_m.gguf
- IQ3_M量子化、中ブロックサイズで精度向上。
- 低メモリデバイスに適している。
Llama-3.2-1B-Instruct-q4_0.gguf
- 純粋なQ4_0量子化、ARMデバイス向けに最適化。
- 低メモリ環境に最適。
- より高い精度が必要な場合はIQ4_NLを推奨。
🚀 これらのモデルが役立つ場合
❤ 役に立ったら「いいね」をクリックしてください!
量子対応セキュリティチェックを備えたAI搭載ネットワークモニターアシスタントのテストに協力ください:
👉 無料ネットワークモニター
💬 テスト方法:
- チャットアイコンをクリック(各ページの右下)
- AIアシスタントタイプを選択:
TurboLLM
(GPT-4-mini)FreeLLM
(オープンソース)TestLLM
(実験的CPU専用)
テスト内容
小規模オープンソースモデルの限界に挑戦中、特に以下を処理可能な最小モデルサイズ:
- ライブネットワークサービスに対する関数呼び出し
- 自動化されたNmapスキャン
- 量子対応チェック
- Metasploit統合
🟡 TestLLM – 現在の実験モデル(llama.cpp、6 CPUスレッド):
- ✅ ゼロコンフィギュレーション設定
- ⏳ 30秒のロード時間(推論は遅いがAPIコストなし)
- 🔧 協力求む! エッジデバイスAIに興味があれば、協力しましょう!
その他のアシスタント
🟢 TurboLLM – gpt-4-miniを使用:
- リアルタイムネットワーク診断
- 自動ペネトレーションテスト (Nmap/Metasploit)
- 🔑 無料ネットワークモニターエージェントをダウンロードでより多くのトークンを取得
🔵 HugLLM – オープンソースモデル(≈8Bパラメータ):
- TurboLLMより2倍のトークン
- AI搭載ログ分析
- 🌐 Hugging Face推論APIで実行
💡 テスト可能なAIコマンド例:
"ウェブサイトのSSL証明書情報を教えて"
"サーバーが量子安全暗号を使用しているか確認して"
"簡単なNmap脆弱性テストを実行して"



