🚀 Vikhr-Llama-3.2-1B-instruct
这是一个基于Llama-3.2-1B-Instruct的指令模型,在俄语数据集GrandMaster-PRO-MAX上进行训练。它的效率是基础模型的5倍,非常适合部署在低功耗或移动设备上。
✨ 主要特性
- 多语言支持:支持俄语(ru)和英语(en)。
- 高效性能:效率是基础模型的5倍,适合低功耗或移动设备部署。
- 优质训练:基于Vikhr-Llama-3.2-1B,在GrandMaster-PRO-MAX数据集上训练。
📦 安装指南
文档未提供安装步骤,暂不展示。
📚 详细文档
模型信息
属性 |
详情 |
库名称 |
llamacpp |
模型名称 |
Vikhr-Gemma-2B-instruct |
基础模型 |
Vikhrmodels/Vikhr-Llama-3.2-1B |
支持语言 |
俄语、英语 |
许可证 |
llama3.2 |
标签 |
instruct |
训练数据集 |
Vikhrmodels/GrandMaster-PRO-MAX |
任务类型 |
文本生成 |
模型介绍
俄语介绍
这是一个基于Llama-3.2-1B-Instruct的指令模型,在俄语数据集GrandMaster-PRO-MAX上进行训练。它的效率是基础模型的5倍,非常适合部署在低功耗或移动设备上。
英语介绍
Instructive model based on Llama-3.2-1B-Instruct, trained on the Russian-language dataset GrandMaster-PRO-MAX. It is 5 times more efficient than the base model, making it perfect for deployment on low-power or mobile devices.
评估指标(ru_arena_general)
模型 |
得分 |
95%置信区间 |
平均令牌数 |
令牌数标准差 |
LC得分 |
kolibri-vikhr-mistral-0427 |
22.41 |
+1.6 / -1.6 |
489.89 |
566.29 |
46.04 |
storm-7b |
20.62 |
+2.0 / -1.6 |
419.32 |
190.85 |
45.78 |
neural-chat-7b-v3-3 |
19.04 |
+2.0 / -1.7 |
927.21 |
1211.62 |
45.56 |
Vikhrmodels-Vikhr-Llama-3.2-1B-instruct |
19.04 |
+1.3 / -1.6 |
958.63 |
1297.33 |
45.56 |
gigachat_lite |
17.2 |
+1.4 / -1.4 |
276.81 |
329.66 |
45.29 |
Vikhrmodels-vikhr-qwen-1.5b-it |
13.19 |
+1.4 / -1.6 |
2495.38 |
741.45 |
44.72 |
meta-llama-Llama-3.2-1B-Instruct |
4.04 |
+0.8 / -0.6 |
1240.53 |
1783.08 |
43.42 |
作者信息
引用信息
@article{nikolich2024vikhr,
title={Vikhr: The Family of Open-Source Instruction-Tuned Large Language Models for Russian},
author={Aleksandr Nikolich and Konstantin Korolev and Sergey Bratchikov and Nikolay Kompanets and Artem Shelmanov},
journal={arXiv preprint arXiv:2405.13929},
year={2024},
url={https://arxiv.org/pdf/2405.13929}
}
📄 许可证
本模型使用的许可证为llama3.2。