L

Llama 3.2 1B Instruct Q4 K M GGUF

hugging-quantsによって開発
これはMeta Llama-3.2-1B-Instructモデルを変換したGGUF形式の定量版で、ローカル推論シナリオに適しています。
ダウンロード数 24.70k
リリース時間 : 9/25/2024

モデル概要

このモデルはMeta Llama-3.2-1B-Instructの4ビット定量版で、効率的なローカル推論用に設計されており、複数の言語とテキスト生成タスクをサポートします。

モデル特徴

効率的な定量
Q4_K_M定量方法を採用し、高精度を維持しながらモデルサイズとメモリ要件を大幅に削減します
多言語サポート
英語、ドイツ語、フランス語など8つの言語のテキスト生成タスクをサポートします
ローカル推論最適化
GGUF形式はllama.cpp用に最適化されており、消費者向けハードウェアで効率的に動作します

モデル能力

テキスト生成
命令追従
多言語処理

使用事例

コンテンツ作成
記事執筆支援
ユーザーが記事の草稿を生成したり、執筆のアイデアを得たりするのを支援します
教育
言語学習アシスタント
言語学習者に多言語の練習とフィードバックを提供します
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase