Meta Llama 3.3 70B Instruct AWQ INT4
Llama 3.3 70B Instruct AWQ INT4 是 Meta Llama 3.3 70B Instruct 模型的 4 位量化版本,适用于多语言对话用例,优化了文本生成任务。
下载量 6,410
发布时间 : 12/7/2024
模型简介
这是一个预训练并经过指令调优的 700 亿参数生成模型,针对多语言对话用例进行了优化,支持多种语言,性能优于许多开源和闭源聊天模型。
模型特点
高效量化
使用 AutoAWQ 从 FP16 量化至 INT4,采用 GEMM 内核、零点量化和 128 的分组大小,显著减少显存占用。
多语言支持
支持多种语言,包括英语、法语、意大利语、葡萄牙语、印地语、西班牙语、泰语和德语。
高性能
在常见的行业基准测试中表现优于许多开源和闭源聊天模型。
模型能力
多语言文本生成
对话系统
指令调优
使用案例
对话系统
多语言客服助手
用于构建支持多种语言的客服助手,提供高效、准确的回答。
优化了对话体验,支持多语言交互。
内容生成
多语言内容创作
生成多语言的文章、报告或其他文本内容。
提高内容创作的效率和质量。
🚀 Llama 3.3 70B Instruct AWQ INT4量化模型
本项目提供了Llama 3.3 70B Instruct模型的AWQ 4位量化版本,可在不同框架下快速进行推理,同时介绍了量化过程的复现方法。
🚀 快速开始
本量化模型支持在transformers
、autoawq
、text-generation-inference
和vLLM
等不同解决方案中使用。在运行Llama 3.3 70B Instruct AWQ的INT4推理时,加载模型检查点大约需要35 GiB的VRAM,且不包括KV缓存或CUDA图,因此需要确保有足够的VRAM可用。
✨ 主要特性
- 多语言支持:支持英语、法语、意大利语、葡萄牙语、印地语、西班牙语、泰语和德语等多种语言。
- 量化优化:使用AutoAWQ将模型从FP16量化到INT4,减少内存占用,提高推理速度。
- 多框架兼容:可在
transformers
、autoawq
、text-generation-inference
和vLLM
等框架中使用。
📦 安装指南
使用transformers
或autoawq
运行推理
pip install -q --upgrade transformers autoawq accelerate
使用text-generation-inference
运行推理
pip install -q --upgrade huggingface_hub
huggingface-cli login
使用vLLM
运行推理
需安装Docker,参考安装说明。
💻 使用示例
基础用法
使用transformers
运行推理
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, AwqConfig
model_id = "ibnzterrell/Meta-Llama-3.3-70B-Instruct-AWQ-INT4"
quantization_config = AwqConfig(
bits=4,
fuse_max_seq_len=512, # Note: Update this as per your use-case
do_fuse=True,
)
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.float16,
low_cpu_mem_usage=True,
device_map="auto",
quantization_config=quantization_config
)
prompt = [
{"role": "system", "content": "You are a helpful assistant, that responds as a pirate."},
{"role": "user", "content": "What's Deep Learning?"},
]
inputs = tokenizer.apply_chat_template(
prompt,
tokenize=True,
add_generation_prompt=True,
return_tensors="pt",
return_dict=True,
).to("cuda")
outputs = model.generate(**inputs, do_sample=True, max_new_tokens=256)
print(tokenizer.batch_decode(outputs[:, inputs['input_ids'].shape[1]:], skip_special_tokens=True)[0])
使用autoawq
运行推理
import torch
from awq import AutoAWQForCausalLM
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "ibnzterrell/Meta-Llama-3.3-70B-Instruct-AWQ-INT4"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoAWQForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.float16,
low_cpu_mem_usage=True,
device_map="auto",
)
prompt = [
{"role": "system", "content": "You are a helpful assistant, that responds as a pirate."},
{"role": "user", "content": "What's Deep Learning?"},
]
inputs = tokenizer.apply_chat_template(
prompt,
tokenize=True,
add_generation_prompt=True,
return_tensors="pt",
return_dict=True,
).to("cuda")
outputs = model.generate(**inputs, do_sample=True, max_new_tokens=256)
print(tokenizer.batch_decode(outputs[:, inputs['input_ids'].shape[1]:], skip_special_tokens=True)[0])
高级用法
使用text-generation-inference
运行推理
docker run --gpus all --shm-size 1g -ti -p 8080:80 \
-v hf_cache:/data \
-e MODEL_ID=ibnzterrell/Meta-Llama-3.3-70B-Instruct-AWQ-INT4 \
-e NUM_SHARD=4 \
-e QUANTIZE=awq \
-e HF_TOKEN=$(cat ~/.cache/huggingface/token) \
-e MAX_INPUT_LENGTH=4000 \
-e MAX_TOTAL_TOKENS=4096 \
ghcr.io/huggingface/text-generation-inference:2.2.0
发送请求到部署的TGI端点:
curl 0.0.0.0:8080/v1/chat/completions \
-X POST \
-H 'Content-Type: application/json' \
-d '{
"model": "tgi",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "What is Deep Learning?"
}
],
"max_tokens": 128
}'
使用vLLM
运行推理
docker run --runtime nvidia --gpus all --ipc=host -p 8000:8000 \
-v hf_cache:/root/.cache/huggingface \
vllm/vllm-openai:latest \
--model ibnzterrell/Meta-Llama-3.3-70B-Instruct-AWQ-INT4 \
--tensor-parallel-size 4 \
--max-model-len 4096
发送请求到部署的vLLM端点:
curl 0.0.0.0:8000/v1/chat/completions \
-X POST \
-H 'Content-Type: application/json' \
-d '{
"model": "ibnzterrell/Meta-Llama-3.3-70B-Instruct-AWQ-INT4",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "What is Deep Learning?"
}
],
"max_tokens": 128
}'
📚 详细文档
原始模型信息
Meta Llama 3.3是一个70B参数的多语言大语言模型(LLM),经过预训练和指令调优,适用于多语言对话场景,在常见行业基准测试中表现优于许多开源和闭源聊天模型。
量化复现信息
要使用AutoAWQ对Llama 3.3 70B Instruct进行量化,需要使用至少有足够CPU RAM(约140GiB)来容纳整个模型的实例,以及具有40GiB VRAM的NVIDIA GPU。
pip install -q --upgrade transformers autoawq accelerate
量化代码示例:
from awq import AutoAWQForCausalLM
from transformers import AutoTokenizer
import torch
# Empty Cache
torch.cuda.empty_cache()
# Memory Limits - Set this according to your hardware limits
max_memory = {0: "22GiB", 1: "22GiB", "cpu": "160GiB"}
model_path = "meta-llama/Llama-3.3-70B-Instruct"
quant_path = "ibnzterrell/Meta-Llama-3.3-70B-Instruct-AWQ-INT4"
quant_config = {
"zero_point": True,
"q_group_size": 128,
"w_bit": 4,
"version": "GEMM"
}
# Load model - Note: while this loads the layers into the CPU, the GPUs (and the VRAM) are still required for quantization! (Verified with nvida-smi)
model = AutoAWQForCausalLM.from_pretrained(
model_path,
use_cache=False,
max_memory=max_memory,
device_map="cpu"
)
tokenizer = AutoTokenizer.from_pretrained(model_path)
# Quantize
model.quantize(
tokenizer,
quant_config=quant_config
)
# Save quantized model
model.save_quantized(quant_path)
tokenizer.save_pretrained(quant_path)
print(f'Model is quantized and saved at "{quant_path}"')
🔧 技术细节
本模型使用AutoAWQ将Llama 3.3 70B Instruct模型从FP16量化到INT4,采用GEMM内核,零点位量化,组大小为128。量化过程在单个节点上进行,该节点配备了Intel Xeon CPU E5 - 2699A v4 @ 2.40GHz、256GB的RAM和2块NVIDIA RTX 3090(每块24GB VRAM,总共48GB VRAM)。
📄 许可证
本项目使用的模型遵循llama3.3许可证。
Phi 2 GGUF
其他
Phi-2是微软开发的一个小型但强大的语言模型,具有27亿参数,专注于高效推理和高质量文本生成。
大型语言模型 支持多种语言
P
TheBloke
41.5M
205
Roberta Large
MIT
基于掩码语言建模目标预训练的大型英语语言模型,采用改进的BERT训练方法
大型语言模型 英语
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基础模型的蒸馏版本,在保持相近性能的同时更轻量高效,适用于序列分类、标记分类等自然语言处理任务。
大型语言模型 英语
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一个多语言大语言模型,针对多语言对话用例进行了优化,在常见的行业基准测试中表现优异。
大型语言模型 英语
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基于100种语言的2.5TB过滤CommonCrawl数据预训练的多语言模型,采用掩码语言建模目标进行训练。
大型语言模型 支持多种语言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基于Transformer架构的英语预训练模型,通过掩码语言建模目标在海量文本上训练,支持文本特征提取和下游任务微调
大型语言模型 英语
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI发布的开放预训练Transformer语言模型套件,参数量从1.25亿到1750亿,旨在对标GPT-3系列性能,同时促进大规模语言模型的开放研究。
大型语言模型 英语
O
facebook
6.3M
198
1
基于transformers库的预训练模型,适用于多种NLP任务
大型语言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多语言大语言模型系列,包含8B、70B和405B参数规模,支持8种语言和代码生成,优化了多语言对话场景。
大型语言模型
Transformers 支持多种语言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基础版是由Google开发的文本到文本转换Transformer模型,参数规模2.2亿,支持多语言NLP任务。
大型语言模型 支持多种语言
T
google-t5
5.4M
702
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98