🚀 輕藍蒼鴉模型(ao-karasu-72B)
輕藍蒼鴉模型(ao-karasu-72B)是一款強大的語言模型,本項目提供了該模型的使用方法、訓練細節等相關信息,幫助你快速上手和了解模型背後的技術。
🚀 快速開始
我們建議至少使用 4 張 A100 顯卡來運行該模型。
💻 使用示例
基礎用法
Huggingface 使用示例
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
import torch
tokenizer = AutoTokenizer.from_pretrained("lightblue/ao-karasu-72B")
model = AutoModelForCausalLM.from_pretrained("lightblue/ao-karasu-72B", device_map="auto")
pipe = pipeline("text-generation", model=model, tokenizer=tokenizer)
messages = [{"role": "system", "content": "あなたはAIアシスタントです。"}]
messages.append({"role": "user", "content": "イギリスの首相は誰ですか?"})
prompt = tokenizer.apply_chat_template(conversation=messages, add_generation_prompt=True, tokenize=False)
pipe(prompt, max_new_tokens=100, do_sample=False, temperature=0.0, return_full_text=False)
vLLM 使用示例
from vllm import LLM, SamplingParams
sampling_params = SamplingParams(temperature=0.0, max_tokens=100)
llm = LLM(model="lightblue/aokarasu-72B", tensor_parallel_size=4)
messages = [{"role": "system", "content": "あなたはAIアシスタントです。"}]
messages.append({"role": "user", "content": "イギリスの首相は誰ですか?"})
prompt = llm.llm_engine.tokenizer.tokenizer.apply_chat_template(conversation=messages, add_generation_prompt=True, tokenize=False)
prompts = [prompt]
outputs = llm.generate(prompts, sampling_params)
for output in outputs:
prompt = output.prompt
generated_text = output.outputs[0].text
print(f"Prompt: {prompt!r}, Generated text: {generated_text!r}")
📚 詳細文檔
訓練細節
訓練數據
該模型的訓練數據約 2000 萬個字符樣本,來自一個超過 11 億字符的數據集,具體構成如下:
屬性 |
詳情 |
維基百科問答數據 |
約 4.5 億字符(與 Qarasu 相同) |
技術博客數據 |
約 2 億字符(新增) |
日本問答網站答案數據 |
約 2 億字符(新增) |
大語言模型生成的提示和響應數據 |
約 1 億字符(與 Qarasu 相同) |
新聞文章數據 |
約 7000 萬字符(新增) |
訓練安排
在 A100(80GB)GPU 上訓練約 1 天。