L

Llama 3.2 1B Instruct GGUF

Mungertによって開発
Llama-3.2-1B-Instruct は Llama アーキテクチャに基づく 1B パラメータの命令微調整モデルで、さまざまなハードウェアニーズに対応するために複数の量子化フォーマットを提供します。
ダウンロード数 708
リリース時間 : 4/25/2025

モデル概要

このモデルは軽量な大規模言語モデルで、命令追従と生成タスクに適しており、さまざまなハードウェア上での実行効率を最適化するために複数の量子化フォーマットをサポートしています。

モデル特徴

マルチフォーマットサポート
BF16、F16 およびさまざまな量子化フォーマット(Q4_K、Q6_K、Q8_0 など)を提供し、異なるハードウェアとメモリ制限に対応します。
ハードウェア最適化
BF16 と FP16 アクセラレーションをサポートし、高性能推論と低メモリデバイスに適しています。
究極のメモリ効率
IQ3_XS、IQ3_S、IQ3_M などの極低位量子化を提供し、超低メモリデバイスに適しています。
ARM デバイス最適化
Q4_0 量子化フォーマットは ARM デバイス向けに特別に最適化されており、モバイルおよび組み込みアプリケーションに適しています。

モデル能力

テキスト生成
命令追従
低メモリ推論
マルチハードウェアサポート

使用事例

エッジコンピューティング
低電力デバイス展開
ARM デバイスや低メモリ環境でモデルを実行し、ローカルテキスト生成を実現します。
メモリ使用量を削減し、実行効率を向上させます。
高性能推論
GPU アクセラレーション推論
BF16 または FP16 をサポートする GPU でモデルを実行し、高速テキスト生成を実現します。
推論速度を向上させ、遅延を減少させます。
実験的アプリケーション
AI ネットワーク監視
リアルタイムネットワーク診断と量子セキュリティチェックに使用されます。
自動化されたネットワーク監視と脆弱性検出を実現します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase