🚀 ABEJA-Qwen2.5-7b-Japanese-v0.1
ABEJA-Qwen2.5-7b-Japanese-v0.1 是基於 Qwen/Qwen2.5-7B-Instruct 進行日語學習的模型。該模型並非採用常規的持續預訓練方式,而是以 abeja/ABEJA-Qwen2.5-32b-Japanese-v0.1 為基礎進行蒸餾學習得到的。此外,該模型未進行後訓練(Post-Traning),而是通過 ChatVector(Qwen/Qwen2.5-7B-Instruct 與 Qwen/Qwen2.5-7B 的差分向量)提升了指令跟隨性能。
如需瞭解更多詳細信息,請參考 ABEJA 的技術博客。
🚀 快速開始
ABEJA-Qwen2.5-7b-Japanese-v0.1 是基於 Qwen/Qwen2.5-7B-Instruct 進行日語學習的模型。該模型並非採用常規的持續預訓練方式,而是以 abeja/ABEJA-Qwen2.5-32b-Japanese-v0.1 為基礎進行蒸餾學習得到的。此外,該模型未進行後訓練(Post-Traning),而是通過 ChatVector(Qwen/Qwen2.5-7B-Instruct 與 Qwen/Qwen2.5-7B 的差分向量)提升了指令跟隨性能。
如需瞭解更多詳細信息,請參考 ABEJA 的技術博客。
💻 使用示例
基礎用法
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "abeja/ABEJA-Qwen2.5-7b-Japanese-v0.1"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "人とAIが協調するためには?"
messages = [
{"role": "system", "content": "You are Qwen, created by Alibaba Cloud. You are a helpful assistant."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
📄 許可證
本項目採用 Apache-2.0 許可證。
👨💻 開發者
- Hiroshi Kiyota
- Keisuke Fujimoto
- Kentaro Nakanishi
- Kyo Hattori
- Shinya Otani
- Shogo Muranushi
- Takuma Kume
- Tomoki Manabe
(*按字母順序排列)
📋 模型信息
屬性 |
詳情 |
模型類型 |
文本生成 |
基礎模型 |
Qwen/Qwen2.5-7B-Instruct |
學習方式 |
基於 abeja/ABEJA-Qwen2.5-32b-Japanese-v0.1 進行蒸餾學習 |
指令跟隨性能提升方式 |
通過 ChatVector(Qwen/Qwen2.5-7B-Instruct 與 Qwen/Qwen2.5-7B 的差分向量) |