L

Llama 3.2 1B Instruct GGUF

由Mungert開發
Llama-3.2-1B-Instruct 是一個基於 Llama 架構的 1B 參數量的指令微調模型,提供多種量化格式以適應不同硬件需求。
下載量 708
發布時間 : 4/25/2025

模型概述

該模型是一個輕量級的大語言模型,適用於指令跟隨和生成任務,支持多種量化格式以優化在不同硬件上的運行效率。

模型特點

多格式支持
提供 BF16、F16 和多種量化格式(如 Q4_K、Q6_K、Q8_0 等),以適應不同硬件和內存限制。
硬件優化
支持 BF16 和 FP16 加速,適用於高性能推理和低內存設備。
極致內存效率
提供極低位量化(如 IQ3_XS、IQ3_S、IQ3_M),適用於超低內存設備。
ARM 設備優化
Q4_0 量化格式專門針對 ARM 設備優化,適合移動端和嵌入式應用。

模型能力

文本生成
指令跟隨
低內存推理
多硬件支持

使用案例

邊緣計算
低功耗設備部署
在 ARM 設備或低內存環境中運行模型,實現本地化文本生成。
減少內存佔用,提升運行效率。
高性能推理
GPU 加速推理
在支持 BF16 或 FP16 的 GPU 上運行模型,實現高速文本生成。
提升推理速度,減少延遲。
實驗性應用
AI 網絡監控
用於即時網絡診斷和量子安全檢查。
實現自動化網絡監控和漏洞檢測。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase