🚀 オフィウチ-Qwen3-14B-Instruct
オフィウチ-Qwen3-14B-Instructは、Qwen3-14Bアーキテクチャをベースに構築され、Qwen3ForCausalLMバックボーンを使用しています。数学的推論、コード生成、事実の正確性に関する能力を強化するために命令調整されています。高品質なデータセットと長文脈アーキテクチャを活用することで、このモデルは複雑な推論タスクの解決や、複数のドメインにわたる正確で構造化されたコンテンツの生成に優れています。

✨ 主な機能
-
数学的および論理的推論
段階的な推論、記号論理、高度な数学を実行するように微調整されており、教育や技術的なユースケースをサポートします。
-
コード生成と理解
Python、JavaScript、C++などの様々なプログラミング言語でのコードの作成、解釈、デバッグに最適化されています。
-
事実の整合性と精度
精選された整合性のあるデータセットで学習され、事実ベースのタスクにおける精度を向上させ、幻覚情報の生成を減らしています。
-
長文脈サポート
最大128Kトークンの入力を処理でき、最大8Kトークンの出力を生成できるため、長いシーケンスにわたる詳細で包括的な応答が可能です。
-
命令調整された整合性
多段階の命令に従い、会話の文脈を維持し、セッション全体で構造化された出力を生成する強力な能力を示します。
-
多言語対応
英語、中国語、フランス語、スペイン語、アラビア語、ロシア語、日本語、韓国語など、29以上の言語をサポートし、グローバルなコミュニケーションや翻訳タスクを可能にします。
🚀 クイックスタート
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "prithivMLmods/Ophiuchi-Qwen3-14B-Instruct"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "Explain the principles of alignment in large language models."
messages = [
{"role": "system", "content": "You are a highly capable assistant focused on reasoning, coding, and factual precision."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
📚 ドキュメント
想定される使用方法
- 数学的および記号的な問題解決
- コード生成と説明
- JSON、Markdown、またはテーブル形式の構造化された応答生成
- 長文の技術文書の作成
- 事実に基づく質問応答と事実確認
- STEM分野における教育支援
- 多言語会話と翻訳タスク
制限事項
- 高い計算能力が必要です(A100/H100クラスのGPUを推奨)
- 極端なケースや敵対的な入力では、依然として幻覚情報を生成する可能性があります
- 構造が不十分または曖昧なプロンプトに敏感です
- 長い出力では、初期段階のエラーが伝播する可能性があります
- 創作小説や主観的なナラティブタスクには適していません
📄 ライセンス
Apache-2.0
🔗 参考文献
- Analysing Mathematical Reasoning Abilities of Neural Models. arXiv:1904.01557. https://arxiv.org/pdf/1904.01557
- YaRN: Efficient Context Window Extension of Large Language Models. arXiv:2309.00071. https://arxiv.org/pdf/2309.00071
📋 モデル情報
属性 |
详情 |
モデルタイプ |
テキスト生成 |
ベースモデル |
Qwen/Qwen3-14B |
ライブラリ名 |
transformers |
タグ |
text-generation-inference、code、math、moe |
学習データセット |
open-r1/OpenR1-Math-220k、deepmind/math_dataset、burtenshaw/tulu-3-sft-personas-code-no-prompt |