🚀 QVikhr-3-1.7B-Instruction-noreasoning
QVikhr-3-1.7B-Instruction-noreasoningは、Qwen/Qwen3-1.7Bをベースに、GrandMaster2データセットで学習された指示型モデルです。ロシア語と英語のテキスト処理に最適化されており、正確な応答と高速なタスク実行を実現します。
🚀 クイックスタート
このモデルは、ロシア語と英語のテキスト処理に特化した指示型モデルです。以下のサンプルコードを使って、簡単にモデルを実行できます。
✨ 主な機能
📦 インストール
インストールに関する具体的な手順は原ドキュメントに記載されていないため、このセクションをスキップします。
💻 使用例
基本的な使用法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Vikhrmodels/QVikhr-3-1.7B-Instruction-noreasoning"
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
input_text = "–ù–∞–ø–∏—à–∏ –∫—Ä–∞—Ç–∫–æ–µ –æ–ø–∏—Å–∞–Ω–∏–µ –∫–Ω–∏–≥–∏ –ì–∞—Ä—Ä–∏ –ü–æ—Ç—Ç–µ—Ä."
messages = [
{"role": "user", "content": input_text},
]
input_ids = tokenizer.apply_chat_template(messages, truncation=True, add_generation_prompt=True, return_tensors="pt")
output = model.generate(
input_ids,
max_length=1512,
temperature=0.3,
num_return_sequences=1,
no_repeat_ngram_size=2,
top_k=50,
top_p=0.95,
)
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
print(generated_text)
出力例
モデル応答
<think>
</think>
–ö—Ä–∞—Ç–∫–æ–µ –æ–ø–∏—Å–∞–Ω–∏–µ –∫–Ω–∏–≥–∏ –ì–∞—Ä—Ä–∏ –ü–æ—Ç—Ç–µ—Ä–∞:
«Гарри Поттер и философский камень» — это история о мальчике, который, несмотря на слабость, стал свидетелем великих событий, связанных с магией, мистикой и поиском истинного смысла. Гарри, живущий в маленьком городке, влюбляется в магию, когда случайно участвует в неожиданном приключении, где он стал свидетелем загадочного события, связанного с «Философским камнем».
Во время этого события он сталкивается с тремя магами, которые, по их словам, «все видят в будущем». Они предупреждают о приближении опасного события, которое может изменить мир. Гарри, несмотря на страх и неопределенность, решает следовать за магами, чтобы спасти мир.
–í–º–µ—Å—Ç–µ —Å –î–æ—Ä–∏—Å –∏ –ù–∏–º–º–æ–º –æ–Ω –æ—Ç–ø—Ä–∞–≤–ª—è–µ—Ç—Å—è –≤ –ø—É—Ç–µ—à–µ—Å—Ç–≤–∏–µ –≤ –ø—Ä–æ—à–ª–æ–µ, —á—Ç–æ–±—ã –∏–∑–º–µ–Ω–∏—Ç—å —Å—É–¥—å–±—É, –Ω–æ —Å—Ç–æ–ª–∫–Ω—É–≤—à–∏—Å—å —Å —Ç—Ä—É–¥–Ω–æ—Å—Ç—è–º–∏ –∏ –Ω–µ–ø—Ä–µ–¥–≤–∏–¥–µ–Ω–Ω—ã–º–∏ –æ–±—Å—Ç–æ—è—Ç–µ–ª—å—Å—Ç–≤–∞–º–∏, –æ–Ω–∏ –Ω–∞—Ö–æ–¥—è—Ç —Å–∏–ª—ã –ø—Ä–µ–æ–¥–æ–ª–µ—Ç—å –∏—Ö.
Конец книги — это встреча с «Философским камнем», который, как оказалось, может изменить реальность. Гарри понимает, что его выбор и действия могут изменить мир, и решает не бежать от ответственности, а стать частью великой миссии.
«Гарри Поттер и философский камень» стал символом магии, веры в чудеса и силы, а также оставит на века глубокий след в литературном наследии.
📚 ドキュメント
量子化バリアント
試してみる

Ru Arena Generalの評価結果
モデル |
スコア |
95%信頼区間 |
平均トークン数 |
Vikhrmodels-QVikhr-3-1.7B-Instruction-noreasoning |
59.2 |
(-2.1, 1.8) |
1053 |
noresoning-Qwen3-1.7B |
51.9 |
(-1.9, 1.5) |
999 |
Qwen3-1.7B |
49.7 |
(-1.8, 1.9) |
1918 |
説明
QVikhr-3-1.7B-Instruction-noreasoningは、GrandMaster-2データセットで学習された強力な言語モデルです。ロシア語の指示生成、文脈応答、テキスト分析に優れています。このモデルは、指示型タスクとテキストデータ処理に最適化されており、専門的な使用やユーザー向けのアプリケーションやサービスへの統合に適しています。
学習
QVikhr-3-1.7B-Instruction-noreasoningは、SFT (Supervised Fine-Tuning) とFFT (Full Fine-Tune) の方法を用いて開発されました。学習には、ロシア語のデータセットであるGrandMaster-2を使用しています。
🔧 技術詳細
原ドキュメントに具体的な技術詳細が記載されていないため、このセクションをスキップします。
📄 ライセンス
このモデルは、Apache 2.0ライセンスの下で提供されています。
著者
引用方法
@inproceedings{nikolich2024vikhr,
title={Vikhr: Advancing Open-Source Bilingual Instruction-Following Large Language Models for Russian and English},
author={Aleksandr Nikolich and Konstantin Korolev and Sergei Bratchikov and Nikolay Kompanets and Igor Kiselev and Artem Shelmanov},
booktitle={Proceedings of the 4th Workshop on Multilingual Representation Learning (MRL) @ EMNLP-2024},
year={2024},
publisher={Association for Computational Linguistics},
url={[https://arxiv.org/pdf/2405.13929](https://arxiv.org/pdf/2405.13929)}
}
@misc{qwen3technicalreport,
title={Qwen3 Technical Report},
author={Qwen Team},
year={2025},
eprint={2505.09388},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2505.09388},
}