🚀 Ophiuchi-Qwen3-14B-Instruct
Ophiuchi-Qwen3-14B-Instruct基于Qwen3-14B架构,采用Qwen3ForCausalLM主干。它经过指令调优,以增强在数学推理、代码生成和事实准确性方面的能力。通过利用高质量数据集和长上下文架构,该模型旨在出色地解决复杂的推理任务,并在多个领域生成准确、结构化的内容。
🚀 快速开始
使用Transformers库快速上手
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "prithivMLmods/Ophiuchi-Qwen3-14B-Instruct"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "Explain the principles of alignment in large language models."
messages = [
{"role": "system", "content": "You are a highly capable assistant focused on reasoning, coding, and factual precision."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
✨ 主要特性
- 数学和逻辑推理:经过微调,可进行逐步推理、符号逻辑和高等数学运算,支持教育和技术应用场景。
- 代码生成与理解:针对编写、解释和调试各种编程语言(包括Python、JavaScript和C++)的代码进行了优化。
- 事实完整性和精确性:在经过精心策划和对齐的数据集上进行训练,以提高基于事实任务的准确性并减少幻觉。
- 长上下文支持:能够处理最多128K个输入令牌,并生成最多8K个输出令牌,从而能够在长序列上提供详细而全面的响应。
- 指令调优对齐:表现出强大的遵循多步骤指令、维护对话上下文以及在多个会话中生成结构化输出的能力。
- 多语言能力:支持包括英语、中文、法语、西班牙语、阿拉伯语、俄语、日语、韩语等在内的29种以上语言,可实现全球通信和翻译任务。
📚 详细文档
预期用途
- 解决数学和符号问题
- 代码生成与解释
- 以JSON、Markdown或表格格式生成结构化响应
- 长篇技术写作和文档编写
- 事实问答和事实核查
- 跨STEM领域的教育辅助
- 多语言对话和翻译任务
局限性
- 计算要求高(建议使用A100/H100级GPU)
- 在边缘情况或对抗性输入下仍可能产生虚假事实
- 对结构不佳或模糊的提示敏感
- 早期错误可能在长输出中传播
- 不太适合创意小说或主观叙事任务
参考资料
- Analysing Mathematical Reasoning Abilities of Neural Models. arXiv:1904.01557. https://arxiv.org/pdf/1904.01557
- YaRN: Efficient Context Window Extension of Large Language Models. arXiv:2309.00071. https://arxiv.org/pdf/2309.00071
📄 许可证
本项目采用Apache-2.0许可证。
模型信息
属性 |
详情 |
基础模型 |
Qwen/Qwen3-14B |
模型类型 |
文本生成 |
库名称 |
transformers |
训练数据集 |
open-r1/OpenR1-Math-220k、deepmind/math_dataset、burtenshaw/tulu-3-sft-personas-code-no-prompt |
标签 |
text-generation-inference、code、math、moe |
