Stablebeluga2
基於Llama2 70B模型微調的大型語言模型,採用Orca風格數據集訓練,擅長執行復雜指令
下載量 1.3M
發布時間 : 8/12/2023
模型概述
穩定白鯨2是一個經過指令微調的大型語言模型,專注於提供安全可靠的文本生成能力,適用於各種對話和創作任務
模型特點
高效權重存儲
採用bfloat16格式存儲權重,文件大小縮小2倍,同時保持高質量輸出
分片存儲設計
權重按transformer塊分片存儲,優化下載和使用效率
安全格式
使用Safetensors替代Pickle,實現更快的加載速度和更低的內存需求
指令跟隨能力
經過Orca風格數據集微調,擅長理解和執行復雜指令
模型能力
文本生成
對話系統
創意寫作
指令執行
使用案例
內容創作
詩歌創作
根據用戶主題生成詩歌
生成符合主題的創意詩歌
故事寫作
根據提示編寫短篇故事
生成連貫有趣的故事內容
對話系統
智能助手
提供信息查詢和任務協助
準確回答用戶問題並提供幫助
🚀 Stable Beluga 2
Stable Beluga 2是基於Llama2 70B模型微調的自迴歸語言模型,適用於文本生成任務。本倉庫對原模型進行了優化,在存儲和加載方面有更好的表現。
🚀 快速開始
使用以下代碼片段開始與 Stable Beluga 2
進行對話:
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
tokenizer = AutoTokenizer.from_pretrained("stabilityai/StableBeluga2", use_fast=False)
model = AutoModelForCausalLM.from_pretrained("stabilityai/StableBeluga2", torch_dtype=torch.float16, low_cpu_mem_usage=True, device_map="auto")
system_prompt = "### System:\nYou are Stable Beluga, an AI that follows instructions extremely well. Help as much as you can. Remember, be safe, and don't do anything illegal.\n\n"
message = "Write me a poem please"
prompt = f"{system_prompt}### User: {message}\n\n### Assistant:\n"
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
output = model.generate(**inputs, do_sample=True, top_p=0.95, top_k=0, max_new_tokens=256)
print(tokenizer.decode(output[0], skip_special_tokens=True))
Stable Beluga 2
應使用以下提示格式:
### System:
This is a system prompt, please behave and help the user.
### User:
Your prompt here
### Assistant:
The output of Stable Beluga 2
✨ 主要特性
本倉庫包含來自 stabilityai/StableBeluga2 倉庫的模型,並進行了以下更改:
- 以
bfloat16
而非float32
存儲權重:這使得文件大小縮小了2倍,同時會有輕微的質量損失,但與Petals默認使用的NF4量化所導致的損失相比,並不顯著。 - 以小分片形式存儲權重:每個Transformer塊存儲在其自己的分片中(每個1.71 GB)。輸入和輸出嵌入以及相鄰的層歸一化也存儲在單獨的分片中(1.05 GB)。這樣,Petals客戶端和服務器無需下載除實際使用的層之外的任何多餘數據。
- 使用 Safetensors 而非Pickle:這允許更快的加載速度和更低的內存要求。
📚 詳細文檔
模型描述
Stable Beluga 2
是在Llama2 70B模型基礎上,針對Orca風格數據集進行微調的模型。
模型詳情
屬性 | 詳情 |
---|---|
開發者 | Stability AI |
模型類型 | 基於Llama2 70B微調的自迴歸語言模型 |
語言 | 英語 |
庫 | HuggingFace Transformers |
許可證 | 微調後的檢查點 (Stable Beluga 2 ) 遵循 STABLE BELUGA NON-COMMERCIAL COMMUNITY LICENSE AGREEMENT |
聯繫方式 | 如有關於模型的問題和建議,請發送郵件至 lm@stability.ai |
訓練數據集
Stable Beluga 2
在內部的Orca風格數據集上進行訓練。
訓練過程
模型通過在上述數據集上進行監督微調進行學習,採用混合精度(BF16)訓練,並使用AdamW進行優化。以下是相關超參數:
數據集 | 批量大小 | 學習率 | 學習率衰減 | 預熱步數 | 權重衰減 | 貝塔值 |
---|---|---|---|---|---|---|
Orca pt1 packed | 256 | 3e-5 | 餘弦衰減至3e-6 | 100 | 1e-6 | (0.9, 0.95) |
Orca pt2 unpacked | 512 | 3e-5 | 餘弦衰減至3e-6 | 100 | 1e-6 | (0.9, 0.95) |
倫理考量與侷限性
Beluga是一項新技術,使用時存在風險。到目前為止的測試僅使用英語進行,且無法涵蓋所有場景。因此,與所有大語言模型一樣,Beluga的潛在輸出無法提前預測,在某些情況下,模型可能會對用戶提示產生不準確、有偏見或其他令人反感的響應。因此,在部署Beluga的任何應用之前,開發人員應針對其特定應用對模型進行安全測試和調整。
引用方式
@misc{StableBelugaModels,
url={[https://huggingface.co/stabilityai/StableBeluga2](https://huggingface.co/stabilityai/StableBeluga2)},
title={Stable Beluga models},
author={Mahan, Dakota and Carlow, Ryan and Castricato, Louis and Cooper, Nathan and Laforte, Christian}
}
參考文獻
@misc{touvron2023llama,
title={Llama 2: Open Foundation and Fine-Tuned Chat Models},
author={Hugo Touvron and Louis Martin and Kevin Stone and Peter Albert and Amjad Almahairi and Yasmine Babaei and Nikolay Bashlykov and Soumya Batra and Prajjwal Bhargava and Shruti Bhosale and Dan Bikel and Lukas Blecher and Cristian Canton Ferrer and Moya Chen and Guillem Cucurull and David Esiobu and Jude Fernandes and Jeremy Fu and Wenyin Fu and Brian Fuller and Cynthia Gao and Vedanuj Goswami and Naman Goyal and Anthony Hartshorn and Saghar Hosseini and Rui Hou and Hakan Inan and Marcin Kardas and Viktor Kerkez and Madian Khabsa and Isabel Kloumann and Artem Korenev and Punit Singh Koura and Marie-Anne Lachaux and Thibaut Lavril and Jenya Lee and Diana Liskovich and Yinghai Lu and Yuning Mao and Xavier Martinet and Todor Mihaylov and Pushkar Mishra and Igor Molybog and Yixin Nie and Andrew Poulton and Jeremy Reizenstein and Rashi Rungta and Kalyan Saladi and Alan Schelten and Ruan Silva and Eric Michael Smith and Ranjan Subramanian and Xiaoqing Ellen Tan and Binh Tang and Ross Taylor and Adina Williams and Jian Xiang Kuan and Puxin Xu and Zheng Yan and Iliyan Zarov and Yuchen Zhang and Angela Fan and Melanie Kambadur and Sharan Narang and Aurelien Rodriguez and Robert Stojnic and Sergey Edunov and Thomas Scialom},
year={2023},
eprint={2307.09288},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
@misc{mukherjee2023orca,
title={Orca: Progressive Learning from Complex Explanation Traces of GPT-4},
author={Subhabrata Mukherjee and Arindam Mitra and Ganesh Jawahar and Sahaj Agarwal and Hamid Palangi and Ahmed Awadallah},
year={2023},
eprint={2306.02707},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
其他Beluga模型
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98