🚀 SOLAR-0-70b-16bit模型
Solar是由Upstage創建的新聊天機器人,現已在Poe上推出。作為HuggingFace開源大語言模型排行榜上的頂級模型,同時也是Llama 2的微調版本,Solar充分展現了開源技術帶來的進步。
立即前往此處體驗。
🚀 快速開始
本模型名稱已從LLaMa - 2 - 70b - instruct - v2更改為SOLAR-0-70b-16bit。
✨ 主要特性
- 基於強大的LLaMA - 2骨幹模型進行微調。
- 支持處理長達10k +的輸入令牌。
- 在多個基準測試數據集上表現出色。
📚 詳細文檔
🔍 模型詳情
屬性 |
詳情 |
開發者 |
Upstage |
骨幹模型 |
LLaMA - 2 |
語言 |
英文 |
庫 |
HuggingFace Transformers |
許可證 |
微調後的檢查點遵循非商業知識共享許可協議 ([CC BY - NC - 4.0](https://creativecommons.org/licenses/by - nc/4.0/)) |
反饋渠道 |
可在[Hugging Face社區的模型倉庫](https://huggingface.co/upstage/Llama - 2 - 70b - instruct - v2/discussions)中提出問題或反饋 |
聯繫方式 |
如有關於模型的問題或建議,請發送郵件至contact@upstage.ai |
📊 數據集詳情
使用的數據集
- Orca風格數據集
- Alpaca風格數據集
- 除上述數據集外,未使用其他數據集
- 未使用基準測試集或訓練集
提示模板
### System:
{System}
### User:
{User}
### Assistant:
{Assistant}
💻 使用示例
基礎用法
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, TextStreamer
tokenizer = AutoTokenizer.from_pretrained("upstage/Llama-2-70b-instruct-v2")
model = AutoModelForCausalLM.from_pretrained(
"upstage/Llama-2-70b-instruct-v2",
device_map="auto",
torch_dtype=torch.float16,
load_in_8bit=True,
rope_scaling={"type": "dynamic", "factor": 2}
)
prompt = "### User:\nThomas is healthy, but he has to go to the hospital. What could be the reasons?\n\n### Assistant:\n"
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
del inputs["token_type_ids"]
streamer = TextStreamer(tokenizer, skip_prompt=True, skip_special_tokens=True)
output = model.generate(**inputs, streamer=streamer, use_cache=True, max_new_tokens=float('inf'))
output_text = tokenizer.decode(output[0], skip_special_tokens=True)
🔧 技術細節
硬件和軟件
評估結果
概述
- 按照Open LLM Leaderboard上的評估任務對模型進行性能評估。
- 在四個基準數據集上評估模型,包括
ARC - Challenge
、HellaSwag
、MMLU
和TruthfulQA
。
- 使用[lm - evaluation - harness倉庫](https://github.com/EleutherAI/lm - evaluation - harness),具體為提交版本[b281b0921b636bc36ad05c0b0b0763bd6dd43463](https://github.com/EleutherAI/lm - evaluation - harness/tree/b281b0921b636bc36ad05c0b0b0763bd6dd43463)。
- 使用[MT - bench](https://github.com/lm - sys/FastChat/tree/main/fastchat/llm_judge)(一組具有挑戰性的多輪開放式問題)對模型進行評估。
主要結果
模型 |
H4(平均) |
ARC |
HellaSwag |
MMLU |
TruthfulQA |
|
MT_Bench |
[Llama - 2 - 70b - instruct - v2](https://huggingface.co/upstage/Llama - 2 - 70b - instruct - v2)(我們的模型, Open LLM Leaderboard) |
73 |
71.1 |
87.9 |
70.6 |
62.2 |
|
7.44063 |
[Llama - 2 - 70b - instruct](https://huggingface.co/upstage/Llama - 2 - 70b - instruct) (我們的模型, Open LLM Leaderboard) |
72.3 |
70.9 |
87.5 |
69.8 |
61 |
|
7.24375 |
[llama - 65b - instruct](https://huggingface.co/upstage/llama - 65b - instruct) (我們的模型, Open LLM Leaderboard) |
69.4 |
67.6 |
86.5 |
64.9 |
58.8 |
|
|
Llama - 2 - 70b - hf |
67.3 |
67.3 |
87.3 |
69.8 |
44.9 |
|
|
[llama - 30b - instruct - 2048](https://huggingface.co/upstage/llama - 30b - instruct - 2048) (我們的模型, Open LLM Leaderboard) |
67.0 |
64.9 |
84.9 |
61.9 |
56.3 |
|
|
[llama - 30b - instruct](https://huggingface.co/upstage/llama - 30b - instruct) (我們的模型, Open LLM Leaderboard) |
65.2 |
62.5 |
86.2 |
59.4 |
52.8 |
|
|
llama - 65b |
64.2 |
63.5 |
86.1 |
63.9 |
43.4 |
|
|
falcon - 40b - instruct |
63.4 |
61.6 |
84.3 |
55.4 |
52.5 |
|
|
H4分數復現腳本
# clone the repository
git clone https://github.com/EleutherAI/lm-evaluation-harness.git
# check out the specific commit
git checkout b281b0921b636bc36ad05c0b0b0763bd6dd43463
# change to the repository directory
cd lm-evaluation-harness
📄 許可證
微調後的檢查點遵循非商業知識共享許可協議 ([CC BY - NC - 4.0](https://creativecommons.org/licenses/by - nc/4.0/))。
📞 聯繫我們
關於Upstage
- Upstage是一家專注於大語言模型(LLMs)和人工智能的公司。我們將幫助您構建私有大語言模型及相關應用。
- 如果您有用於構建特定領域大語言模型的數據集或有開發大語言模型應用的需求,請點擊此處聯繫我們。
- 截至8月1日,我們的70B模型在openLLM排名中位居榜首,成為目前全球領先的模型。