🚀 ABEJA-QwQ32b-Reasoning-Japanese-v1.0
ABEJA-QwQ32b-Reasoning-Japanese-v1.0 是一個基於 abeja/ABEJA-Qwen2.5-32b-Japanese-v0.1(*) 的推理模型。通過將 Qwen/QwQ-32B 的聊天向量合併到 ABEJA-Qwen2.5-32b-Japanese-v0.1 中,再進行額外訓練,確保了該模型在日語推理任務上的性能。
(*) 該模型基於 Qwen/Qwen2.5-32B-Instruct,以日語為中心進行了持續的預訓練。
該模型會在 <think></think>
標籤內的思考過程之後給出最終輸出。
✨ 主要特性
- 以 abeja/ABEJA-Qwen2.5-32b-Japanese-v0.1 為基礎,融合 Qwen/QwQ-32B 的 ChatVector 並進行追加學習,保障日語推理性能。
- 輸出時會先展示
<think></think>
包裹的思考過程,再給出最終結果。
📦 安裝指南
文檔未提及安裝步驟,可參考 transformers
庫的通用安裝方法:
pip install transformers
💻 使用示例
基礎用法
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "abeja/ABEJA-QwQ32b-Reasoning-Japanese-v1.0"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "人とAIが協調するためには?"
messages = [
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=32768
)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=32768,
do_sample=True,
temperature=0.6,
top_k=40,
top_p=0.95,
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
📚 詳細文檔
使用上の注意
本模型繼承了 QwQ-32B 的特性,建議遵循 QwQ-32B 的使用指南進行使用:
https://huggingface.co/Qwen/QwQ-32B#usage-guidelines
特別注意以下幾點:
- 為了強制模型經過思考過程,請在
<think>\n
之後開始輸出。使用 apply_chat_template
並設置 add_generation_prompt=True
時,會自動應用此設置。
- 推薦使用以下參數:Temperature=0.6,TopP=0.95,MinP=0,TopK 在 20 到 40 之間。(已確認大幅更改這些值會降低模型精度)
- 在多輪對話中,對話歷史應僅包含最終輸出,不要包含
<think></think>
內的思考過程。此功能已包含在 apply_chat_template
中。
- 不需要系統提示,請從
role:user
開始對話。
開發人員
- Hiroshi Kiyota
- Keisuke Fujimoto
- Kentaro Nakanishi
- Kyo Hattori
- Shinya Otani
- Shogo Muranushi
- Takuma Kume
- Tomoki Manabe
(*按字母順序排列)
📄 許可證
本項目採用 Apache-2.0 許可證。