🚀 SOLAR-0-70b-16bit模型
Solar是由Upstage创建的新聊天机器人,现已在Poe上推出。作为HuggingFace开源大语言模型排行榜上的顶级模型,同时也是Llama 2的微调版本,Solar充分展现了开源技术带来的进步。
立即前往此处体验。
🚀 快速开始
本模型名称已从LLaMa - 2 - 70b - instruct - v2更改为SOLAR-0-70b-16bit。
✨ 主要特性
- 基于强大的LLaMA - 2骨干模型进行微调。
- 支持处理长达10k +的输入令牌。
- 在多个基准测试数据集上表现出色。
📚 详细文档
🔍 模型详情
属性 |
详情 |
开发者 |
Upstage |
骨干模型 |
LLaMA - 2 |
语言 |
英文 |
库 |
HuggingFace Transformers |
许可证 |
微调后的检查点遵循非商业知识共享许可协议 ([CC BY - NC - 4.0](https://creativecommons.org/licenses/by - nc/4.0/)) |
反馈渠道 |
可在[Hugging Face社区的模型仓库](https://huggingface.co/upstage/Llama - 2 - 70b - instruct - v2/discussions)中提出问题或反馈 |
联系方式 |
如有关于模型的问题或建议,请发送邮件至contact@upstage.ai |
📊 数据集详情
使用的数据集
- Orca风格数据集
- Alpaca风格数据集
- 除上述数据集外,未使用其他数据集
- 未使用基准测试集或训练集
提示模板
### System:
{System}
### User:
{User}
### Assistant:
{Assistant}
💻 使用示例
基础用法
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, TextStreamer
tokenizer = AutoTokenizer.from_pretrained("upstage/Llama-2-70b-instruct-v2")
model = AutoModelForCausalLM.from_pretrained(
"upstage/Llama-2-70b-instruct-v2",
device_map="auto",
torch_dtype=torch.float16,
load_in_8bit=True,
rope_scaling={"type": "dynamic", "factor": 2}
)
prompt = "### User:\nThomas is healthy, but he has to go to the hospital. What could be the reasons?\n\n### Assistant:\n"
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
del inputs["token_type_ids"]
streamer = TextStreamer(tokenizer, skip_prompt=True, skip_special_tokens=True)
output = model.generate(**inputs, streamer=streamer, use_cache=True, max_new_tokens=float('inf'))
output_text = tokenizer.decode(output[0], skip_special_tokens=True)
🔧 技术细节
硬件和软件
评估结果
概述
- 按照Open LLM Leaderboard上的评估任务对模型进行性能评估。
- 在四个基准数据集上评估模型,包括
ARC - Challenge
、HellaSwag
、MMLU
和TruthfulQA
。
- 使用[lm - evaluation - harness仓库](https://github.com/EleutherAI/lm - evaluation - harness),具体为提交版本[b281b0921b636bc36ad05c0b0b0763bd6dd43463](https://github.com/EleutherAI/lm - evaluation - harness/tree/b281b0921b636bc36ad05c0b0b0763bd6dd43463)。
- 使用[MT - bench](https://github.com/lm - sys/FastChat/tree/main/fastchat/llm_judge)(一组具有挑战性的多轮开放式问题)对模型进行评估。
主要结果
模型 |
H4(平均) |
ARC |
HellaSwag |
MMLU |
TruthfulQA |
|
MT_Bench |
[Llama - 2 - 70b - instruct - v2](https://huggingface.co/upstage/Llama - 2 - 70b - instruct - v2)(我们的模型, Open LLM Leaderboard) |
73 |
71.1 |
87.9 |
70.6 |
62.2 |
|
7.44063 |
[Llama - 2 - 70b - instruct](https://huggingface.co/upstage/Llama - 2 - 70b - instruct) (我们的模型, Open LLM Leaderboard) |
72.3 |
70.9 |
87.5 |
69.8 |
61 |
|
7.24375 |
[llama - 65b - instruct](https://huggingface.co/upstage/llama - 65b - instruct) (我们的模型, Open LLM Leaderboard) |
69.4 |
67.6 |
86.5 |
64.9 |
58.8 |
|
|
Llama - 2 - 70b - hf |
67.3 |
67.3 |
87.3 |
69.8 |
44.9 |
|
|
[llama - 30b - instruct - 2048](https://huggingface.co/upstage/llama - 30b - instruct - 2048) (我们的模型, Open LLM Leaderboard) |
67.0 |
64.9 |
84.9 |
61.9 |
56.3 |
|
|
[llama - 30b - instruct](https://huggingface.co/upstage/llama - 30b - instruct) (我们的模型, Open LLM Leaderboard) |
65.2 |
62.5 |
86.2 |
59.4 |
52.8 |
|
|
llama - 65b |
64.2 |
63.5 |
86.1 |
63.9 |
43.4 |
|
|
falcon - 40b - instruct |
63.4 |
61.6 |
84.3 |
55.4 |
52.5 |
|
|
H4分数复现脚本
# clone the repository
git clone https://github.com/EleutherAI/lm-evaluation-harness.git
# check out the specific commit
git checkout b281b0921b636bc36ad05c0b0b0763bd6dd43463
# change to the repository directory
cd lm-evaluation-harness
📄 许可证
微调后的检查点遵循非商业知识共享许可协议 ([CC BY - NC - 4.0](https://creativecommons.org/licenses/by - nc/4.0/))。
📞 联系我们
关于Upstage
- Upstage是一家专注于大语言模型(LLMs)和人工智能的公司。我们将帮助您构建私有大语言模型及相关应用。
- 如果您有用于构建特定领域大语言模型的数据集或有开发大语言模型应用的需求,请点击此处联系我们。
- 截至8月1日,我们的70B模型在openLLM排名中位居榜首,成为目前全球领先的模型。