🚀 ABEJA-QwQ32b-Reasoning-Japanese-v1.0
ABEJA-QwQ32b-Reasoning-Japanese-v1.0 是一个基于 abeja/ABEJA-Qwen2.5-32b-Japanese-v0.1(*) 的推理模型。通过将 Qwen/QwQ-32B 的聊天向量合并到 ABEJA-Qwen2.5-32b-Japanese-v0.1 中,再进行额外训练,确保了该模型在日语推理任务上的性能。
(*) 该模型基于 Qwen/Qwen2.5-32B-Instruct,以日语为中心进行了持续的预训练。
该模型会在 <think></think>
标签内的思考过程之后给出最终输出。
✨ 主要特性
- 以 abeja/ABEJA-Qwen2.5-32b-Japanese-v0.1 为基础,融合 Qwen/QwQ-32B 的 ChatVector 并进行追加学习,保障日语推理性能。
- 输出时会先展示
<think></think>
包裹的思考过程,再给出最终结果。
📦 安装指南
文档未提及安装步骤,可参考 transformers
库的通用安装方法:
pip install transformers
💻 使用示例
基础用法
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "abeja/ABEJA-QwQ32b-Reasoning-Japanese-v1.0"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "人とAIが協調するためには?"
messages = [
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=32768
)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=32768,
do_sample=True,
temperature=0.6,
top_k=40,
top_p=0.95,
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
📚 详细文档
使用上の注意
本模型继承了 QwQ-32B 的特性,建议遵循 QwQ-32B 的使用指南进行使用:
https://huggingface.co/Qwen/QwQ-32B#usage-guidelines
特别注意以下几点:
- 为了强制模型经过思考过程,请在
<think>\n
之后开始输出。使用 apply_chat_template
并设置 add_generation_prompt=True
时,会自动应用此设置。
- 推荐使用以下参数:Temperature=0.6,TopP=0.95,MinP=0,TopK 在 20 到 40 之间。(已确认大幅更改这些值会降低模型精度)
- 在多轮对话中,对话历史应仅包含最终输出,不要包含
<think></think>
内的思考过程。此功能已包含在 apply_chat_template
中。
- 不需要系统提示,请从
role:user
开始对话。
开发人员
- Hiroshi Kiyota
- Keisuke Fujimoto
- Kentaro Nakanishi
- Kyo Hattori
- Shinya Otani
- Shogo Muranushi
- Takuma Kume
- Tomoki Manabe
(*按字母顺序排列)
📄 许可证
本项目采用 Apache-2.0 许可证。