🚀 轻蓝苍鸦模型(ao-karasu-72B)
轻蓝苍鸦模型(ao-karasu-72B)是一款强大的语言模型,本项目提供了该模型的使用方法、训练细节等相关信息,帮助你快速上手和了解模型背后的技术。
🚀 快速开始
我们建议至少使用 4 张 A100 显卡来运行该模型。
💻 使用示例
基础用法
Huggingface 使用示例
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
import torch
tokenizer = AutoTokenizer.from_pretrained("lightblue/ao-karasu-72B")
model = AutoModelForCausalLM.from_pretrained("lightblue/ao-karasu-72B", device_map="auto")
pipe = pipeline("text-generation", model=model, tokenizer=tokenizer)
messages = [{"role": "system", "content": "あなたはAIアシスタントです。"}]
messages.append({"role": "user", "content": "イギリスの首相は誰ですか?"})
prompt = tokenizer.apply_chat_template(conversation=messages, add_generation_prompt=True, tokenize=False)
pipe(prompt, max_new_tokens=100, do_sample=False, temperature=0.0, return_full_text=False)
vLLM 使用示例
from vllm import LLM, SamplingParams
sampling_params = SamplingParams(temperature=0.0, max_tokens=100)
llm = LLM(model="lightblue/aokarasu-72B", tensor_parallel_size=4)
messages = [{"role": "system", "content": "あなたはAIアシスタントです。"}]
messages.append({"role": "user", "content": "イギリスの首相は誰ですか?"})
prompt = llm.llm_engine.tokenizer.tokenizer.apply_chat_template(conversation=messages, add_generation_prompt=True, tokenize=False)
prompts = [prompt]
outputs = llm.generate(prompts, sampling_params)
for output in outputs:
prompt = output.prompt
generated_text = output.outputs[0].text
print(f"Prompt: {prompt!r}, Generated text: {generated_text!r}")
📚 详细文档
训练细节
训练数据
该模型的训练数据约 2000 万个字符样本,来自一个超过 11 亿字符的数据集,具体构成如下:
属性 |
详情 |
维基百科问答数据 |
约 4.5 亿字符(与 Qarasu 相同) |
技术博客数据 |
约 2 亿字符(新增) |
日本问答网站答案数据 |
约 2 亿字符(新增) |
大语言模型生成的提示和响应数据 |
约 1 亿字符(与 Qarasu 相同) |
新闻文章数据 |
约 7000 万字符(新增) |
训练安排
在 A100(80GB)GPU 上训练约 1 天。