🚀 Vikhr-Llama-3.2-1B-instruct
這是一個基於Llama-3.2-1B-Instruct的指令模型,在俄語數據集GrandMaster-PRO-MAX上進行訓練。它的效率是基礎模型的5倍,非常適合部署在低功耗或移動設備上。
✨ 主要特性
- 多語言支持:支持俄語(ru)和英語(en)。
- 高效性能:效率是基礎模型的5倍,適合低功耗或移動設備部署。
- 優質訓練:基於Vikhr-Llama-3.2-1B,在GrandMaster-PRO-MAX數據集上訓練。
📦 安裝指南
文檔未提供安裝步驟,暫不展示。
📚 詳細文檔
模型信息
屬性 |
詳情 |
庫名稱 |
llamacpp |
模型名稱 |
Vikhr-Gemma-2B-instruct |
基礎模型 |
Vikhrmodels/Vikhr-Llama-3.2-1B |
支持語言 |
俄語、英語 |
許可證 |
llama3.2 |
標籤 |
instruct |
訓練數據集 |
Vikhrmodels/GrandMaster-PRO-MAX |
任務類型 |
文本生成 |
模型介紹
俄語介紹
這是一個基於Llama-3.2-1B-Instruct的指令模型,在俄語數據集GrandMaster-PRO-MAX上進行訓練。它的效率是基礎模型的5倍,非常適合部署在低功耗或移動設備上。
英語介紹
Instructive model based on Llama-3.2-1B-Instruct, trained on the Russian-language dataset GrandMaster-PRO-MAX. It is 5 times more efficient than the base model, making it perfect for deployment on low-power or mobile devices.
評估指標(ru_arena_general)
模型 |
得分 |
95%置信區間 |
平均令牌數 |
令牌數標準差 |
LC得分 |
kolibri-vikhr-mistral-0427 |
22.41 |
+1.6 / -1.6 |
489.89 |
566.29 |
46.04 |
storm-7b |
20.62 |
+2.0 / -1.6 |
419.32 |
190.85 |
45.78 |
neural-chat-7b-v3-3 |
19.04 |
+2.0 / -1.7 |
927.21 |
1211.62 |
45.56 |
Vikhrmodels-Vikhr-Llama-3.2-1B-instruct |
19.04 |
+1.3 / -1.6 |
958.63 |
1297.33 |
45.56 |
gigachat_lite |
17.2 |
+1.4 / -1.4 |
276.81 |
329.66 |
45.29 |
Vikhrmodels-vikhr-qwen-1.5b-it |
13.19 |
+1.4 / -1.6 |
2495.38 |
741.45 |
44.72 |
meta-llama-Llama-3.2-1B-Instruct |
4.04 |
+0.8 / -0.6 |
1240.53 |
1783.08 |
43.42 |
作者信息
引用信息
@article{nikolich2024vikhr,
title={Vikhr: The Family of Open-Source Instruction-Tuned Large Language Models for Russian},
author={Aleksandr Nikolich and Konstantin Korolev and Sergey Bratchikov and Nikolay Kompanets and Artem Shelmanov},
journal={arXiv preprint arXiv:2405.13929},
year={2024},
url={https://arxiv.org/pdf/2405.13929}
}
📄 許可證
本模型使用的許可證為llama3.2。