L

Llama 3.2 1B Instruct Q4 K M GGUF

由hugging-quants開發
這是一個基於Meta Llama-3.2-1B-Instruct模型轉換的GGUF格式量化版本,適用於本地推理場景。
下載量 24.70k
發布時間 : 9/25/2024

模型概述

本模型是Meta Llama-3.2-1B-Instruct的4位量化版本,專為高效本地推理設計,支持多種語言和文本生成任務。

模型特點

高效量化
採用Q4_K_M量化方法,在保持較高精度的同時顯著減少模型體積和內存需求
多語言支持
支持包括英語、德語、法語等8種語言的文本生成任務
本地推理優化
GGUF格式專為llama.cpp優化,可在消費級硬件上高效運行

模型能力

文本生成
指令跟隨
多語言處理

使用案例

內容創作
文章寫作輔助
幫助用戶生成文章草稿或寫作靈感
教育
語言學習助手
為語言學習者提供多語言練習和反饋
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase