🚀 魔搭Llama3 8b中文Agent智能体模型
本模型使用Llama3 - 8b - instruct基模型进行训练,适配中文通用场景,且支持ReACT格式的Agent调用,为中文自然语言处理提供了强大支持。
🚀 快速开始
模型使用
推理
# 安装依赖
pip install ms-swift -U
swift infer --model_type llama3-8b-instruct --model_id_or_path swift/Llama3-Chinese-8B-Instruct-Agent-v1
# 部署
swift deploy --model_type llama3-8b-instruct --model_id_or_path swift/Llama3-Chinese-8B-Instruct-Agent-v1
本模型可以联合ModelScopeAgent框架使用,请参考:
ModelScopeAgent使用文档
✨ 主要特性
- 框架支持:基于Pytorch框架构建。
- 许可证:使用Llama3许可证。
- 任务类型:支持文本生成任务。
📦 安装指南
在推理部分已包含安装依赖的命令:
pip install ms-swift -U
📚 详细文档
模型训练信息
为了适配中文及Agent场景,我们针对语料进行了一定混合配比,训练Llama3使用的语料如下:
- COIG - CQIA:该数据集包含了中国传统知识、豆瓣、弱智吧、知乎等中文互联网信息
- 魔搭通用Agent训练数据集: 数据集链接
- alpaca - en: 数据集链接
- ms - bench魔搭通用中文问答数据集: 数据集链接
属性 |
详情 |
模型类型 |
Llama3 |
训练数据 |
COIG - CQIA、魔搭通用Agent训练数据集、alpaca - en、ms - bench魔搭通用中文问答数据集 |
训练使用的超参数如下:
超参数 |
值 |
lr |
5e - 5 |
epoch |
2 |
lora_rank |
8 |
lora_alpha |
32 |
lora_target_modules |
ALL |
batch_size |
2 |
gradient_accumulation_steps |
16 |
模型训练命令
NPROC_PER_NODE=8 \
swift sft \
--model_type llama3-8b-instruct \
--dataset ms-agent-for-agentfabric-default alpaca-en ms-bench ms-agent-for-agentfabric-addition coig-cqia-ruozhiba coig-cqia-zhihu coig-cqia-exam coig-cqia-chinese-traditional coig-cqia-logi-qa coig-cqia-segmentfault coig-cqia-wiki \
--batch_size 2 \
--max_length 2048 \
--use_loss_scale true \
--gradient_accumulation_steps 16 \
--learning_rate 5e-5 \
--use_flash_attn true \
--eval_steps 500 \
--save_steps 500 \
--train_dataset_sample -1 \
--dataset_test_ratio 0.1 \
--val_dataset_sample 10000 \
--num_train_epochs 2 \
--check_dataset_strategy none \
--gradient_checkpointing true \
--weight_decay 0.01 \
--warmup_ratio 0.03 \
--save_total_limit 2 \
--logging_steps 10 \
--sft_type lora \
--lora_target_modules ALL \
--lora_rank 8 \
--lora_alpha 32
模型评测信息
评测模型 |
ARC |
CEVAL |
GSM8K |
Llama3 - 8b - instruct |
0.7645 |
0.5089 |
0.7475 |
Llama3 - Chinese - 8B - Instruct - Agent - v1 |
0.7577 |
0.4903 |
0.652 |
GSM8K英文数学能力下降了8个点左右,经过消融实验我们发现去除alpaca - en语料会导致GSM8K下降至少十个点以上。
📄 许可证
本模型使用Llama3许可证。