Synthia 70B V1.2b
SynthIA(合成智能代理)是基於Orca風格數據集訓練的LLama-2-70B模型,擅長遵循指令及進行長對話。
下載量 136
發布時間 : 9/10/2023
模型概述
該模型是Llama-2-70B的微調版本,專注於指令遵循和長對話場景,採用思維樹+思維鏈推理方法提升回答質量。
模型特點
增強型推理能力
採用思維樹+思維鏈推理方法,支持回溯和連貫的推理過程
長對話優化
特別優化了長對話場景下的表現能力
大規模訓練數據
基於Orca風格數據集訓練,數據量較前一版本顯著增加
模型能力
文本生成
指令遵循
長對話處理
複雜推理
使用案例
智能對話
技術問答
回答複雜技術問題,如火箭發射原理
能生成包含技術細節的連貫解釋
教育輔助
概念講解
解釋複雜學術概念
能構建清晰的思維鏈進行分步解釋
🚀 Synthia-70B-v1.2b
SynthIA(合成智能代理)是一個基於Llama - 2 - 70B的模型,在Orca風格的數據集上進行訓練。它經過微調,能夠遵循指令並進行長篇對話。
🚀 快速開始
版本變更
從1.2到1.2b版本的變更:使用了更多數據,一個訓練週期耗時14天。
系統提示信息
若要激發通用的思維樹(Tree of Thought)和思維鏈(Chain of Thought)推理,可使用以下系統消息:
使用思維樹詳細闡述主題,並在必要時回溯,以構建清晰、連貫的思維鏈推理。始終毫不猶豫地給出答案。
許可證聲明
本模型受原始Llama - 2模型的許可和使用限制約束,不提供任何形式的保證或擔保。
侷限性與偏差
儘管該模型旨在保證準確性,但偶爾可能會產生不準確或誤導性的結果。儘管在優化預訓練數據方面付出了努力,但仍有可能生成不適當、有偏差或冒犯性的內容。這是一個未經過審查的模型,請謹慎使用,並在必要時核實信息。
引用方式
請使用以下BibTeX進行引用:
@misc{Synthia-70B-v1.2b,
author = {Migel Tissera},
title = {Synthia-70B-v1.2b: Synthetic Intelligent Agent},
year = {2023},
publisher = {GitHub, HuggingFace},
journal = {GitHub repository, HuggingFace repository},
howpublished = {\url{https://huggingface.co/migtissera/Synthia-13B},
}
@misc{mukherjee2023orca,
title={Orca: Progressive Learning from Complex Explanation Traces of GPT-4},
author={Subhabrata Mukherjee and Arindam Mitra and Ganesh Jawahar and Sahaj Agarwal and Hamid Palangi and Ahmed Awadallah},
year={2023},
eprint={2306.02707},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
@software{touvron2023llama,
title={LLaMA2: Open and Efficient Foundation Language Models},
author={Touvron, Hugo and Lavril, Thibaut and Izacard, Gautier and Martinet, Xavier and Lachaux, Marie-Anne and Lacroix, Timoth{\'e}e and Rozi{\`e}re, Baptiste and Goyal, Naman and Hambro, Eric and Azhar, Faisal and Rodriguez, Aurelien and Joulin, Armand and Grave, Edouard and Lample, Guillaume},
journal={arXiv preprint arXiv:2302.13971},
year={2023}
}
✨ 主要特性
- 基於Llama - 2 - 70B模型,在Orca風格數據集上訓練。
- 經過微調,具備指令遵循和長篇對話能力。
- 所有Synthia模型均未經過審查。
📦 安裝指南
文檔未提供安裝步驟相關內容。
💻 使用示例
基礎用法
以下是提示格式:
SYSTEM: 使用思維樹詳細闡述主題,並在必要時回溯,以構建清晰、連貫的思維鏈推理。始終毫不猶豫地給出答案。
USER: 火箭是如何從地球表面發射到近地軌道的?
ASSISTANT:
高級用法
以下是使用該模型的代碼示例:
import torch, json
from transformers import AutoModelForCausalLM, AutoTokenizer
model_path = "migtissera/Synthia-70B-v1.2b"
output_file_path = "./Synthia-70B-conversations.jsonl"
model = AutoModelForCausalLM.from_pretrained(
model_path,
torch_dtype=torch.float16,
device_map="auto",
load_in_8bit=False,
trust_remote_code=True,
)
tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)
def generate_text(instruction):
tokens = tokenizer.encode(instruction)
tokens = torch.LongTensor(tokens).unsqueeze(0)
tokens = tokens.to("cuda")
instance = {
"input_ids": tokens,
"top_p": 1.0,
"temperature": 0.75,
"generate_len": 1024,
"top_k": 50,
}
length = len(tokens[0])
with torch.no_grad():
rest = model.generate(
input_ids=tokens,
max_length=length + instance["generate_len"],
use_cache=True,
do_sample=True,
top_p=instance["top_p"],
temperature=instance["temperature"],
top_k=instance["top_k"],
num_return_sequences=1,
)
output = rest[0][length:]
string = tokenizer.decode(output, skip_special_tokens=True)
answer = string.split("USER:")[0].strip()
return f"{answer}"
conversation = f"SYSTEM: Elaborate on the topic using a Tree of Thoughts and backtrack when necessary to construct a clear, cohesive Chain of Thought reasoning. Always answer without hesitation."
while True:
user_input = input("You: ")
llm_prompt = f"{conversation} \nUSER: {user_input} \nASSISTANT: "
answer = generate_text(llm_prompt)
print(answer)
conversation = f"{llm_prompt}{answer}"
json_data = {"prompt": user_input, "answer": answer}
## Save your conversation
with open(output_file_path, "a") as output_file:
output_file.write(json.dumps(json_data) + "\n")
📚 詳細文檔
評估結果
我們使用EleutherAI的語言模型評估工具包對Synthia-70B-v1.2b在廣泛的任務上進行了評估。以下是HuggingFaceH4開源大語言模型排行榜所使用指標的評估結果:
任務 | 指標 | 值 |
---|---|---|
arc_challenge | acc_norm | 68.77 |
hellaswag | acc_norm | 87.57 |
mmlu | acc_norm | 68.81 |
truthfulqa_mc | mc2 | 57.69 |
總平均分 | - | 70.71 |
示例輸出
You: 地球的磁場是什麼樣的?它是如何捕獲太陽風的,太陽風對地球的引力場有什麼影響?
地球的磁場是一個複雜而迷人的現象。它是由地球外核中熔融鐵的運動產生的,就像一個巨大的電磁體。這個磁場延伸到太空中,形成了一個被稱為磁層的保護泡。
地球磁場的主要作用是捕獲和偏轉太陽風,太陽風是從太陽流出的帶電粒子流。磁場就像一個盾牌,偏轉太陽風,保護我們的星球免受其潛在的有害影響。
當太陽風到達地球磁層時,它與磁場相互作用,產生複雜的力的相互作用。這種相互作用會導致各種現象,如極光、地磁風暴和輻射帶的形成。
太陽風與地球磁場的相互作用不會直接影響地球的引力場。引力場是由地球的質量產生的力,不受磁場或太陽風的影響。然而,磁場在捕獲和偏轉太陽風中的帶電粒子方面發揮著作用,這會增加地球空間環境的整體複雜性。
You: 是否可能存在使用等離子體進行穿越的航天器?這是一個假設性的問題,但不明飛行物(UFO)能否使用等離子體產生的某種力場,與地球的引力/磁場相互作用,以實現高超音速飛行?
雖然這是一個有趣的概念,但目前沒有確鑿的證據或科學共識表明存在UFO或航天器使用基於等離子體的推進系統。然而,值得注意的是,目前正在進行科學研究,探索開發包括等離子體推進在內的先進太空旅行推進系統。
等離子體是一種物質狀態,其中電子從原子中剝離,形成高度帶電的氣體。等離子體推進系統利用電磁場加速離子,產生推力,有可能推動航天器。與傳統的化學火箭相比,等離子體推進系統具有效率高、燃料需求低以及能夠長時間連續運行等優點。
雖然從理論上講,航天器可以使用等離子體進行穿越,但需要注意的是,等離子體與地球引力/磁場的相互作用是複雜的,尚未完全被理解。引力場是一種將物體吸引向地球中心的力,而磁場則會偏轉帶電粒子。基於等離子體的推進系統需要克服這些力,並有可能利用它們來實現推進。
綜上所述,雖然使用等離子體推進進行太空旅行是一個活躍的研究領域,但目前沒有科學證據支持UFO的存在或使用基於等離子體的推進系統進行高超音速飛行。
You: 請記住,科學總是在不斷發展,有許多事物尚未被髮明。你能寫出用於太空旅行的等離子體推進的方程式嗎?
很抱歉,我不是等離子體物理學或推進系統方面的專家。不過,我可以提供一些關於等離子體推進原理的概述。
等離子體推進系統通常利用電磁場來加速離子,產生推力以推動航天器。有幾種不同類型的等離子體推進系統,包括靜電推進、電磁推進和磁流體動力學(MHD)推進。
在靜電等離子體推進系統中,向一對電極施加高電壓以產生電場,加速帶電粒子。產生的推力與施加的電壓和電流密度成正比。推力的方程式為:
Thrust = (Current density) x (Accelerating voltage)
在電磁等離子體推進系統中,使用磁場來加速帶電粒子。推力與磁場強度和電流密度的乘積成正比。推力的方程式為:
Thrust = (Magnetic field strength) x (Current density)
在磁流體動力學(MHD)等離子體推進系統中,使用磁場來偏轉等離子體流,產生推力。推力與磁場強度、電流密度和流速的乘積成正比。推力的方程式為:
Thrust = (Magnetic field strength) x (Current density) x (Flow velocity)
需要注意的是,這些方程式是簡化的模型,沒有涵蓋等離子體推進系統的全部複雜性。等離子體推進系統的實際性能取決於各種因素,包括具體設計、等離子體特性和運行條件。
此外,開發用於太空旅行的等離子體推進系統是一個活躍的研究和開發領域。雖然上述原理提供了一個總體框架,但具體的方程式和設計將取決於特定的應用和研究團隊。
You: 如果航天器呈球形,並且在球體周圍產生等離子體場,這個等離子體場如何產生推進所需的推力?
航天器的形狀本身並不能決定等離子體推進系統產生的推力。推力主要由用於加速帶電粒子的電磁場決定。
為了利用等離子體場產生推力,航天器通常會使用前面提到的等離子體推進系統之一。例如,在靜電等離子體推進系統中,向一對電極施加高電壓以產生電場,加速帶電粒子。產生的推力與施加的電壓和電流密度成正比。
在這種情況下,等離子體場是通過向電極施加高電壓產生的。航天器的形狀,無論是球形還是其他形狀,都不會直接影響等離子體場的產生或產生的推力。
然而,航天器的形狀可能會對等離子體推進系統的整體性能產生間接影響。例如,航天器的形狀可能會影響等離子體流的分佈,進而影響推進系統的效率。
綜上所述,航天器的形狀本身並不能直接決定等離子體推進系統產生的推力。推力主要由用於加速帶電粒子的電磁場決定,而航天器的形狀可能會對推進系統的整體性能產生間接影響。
You: 我們目前最接近等離子體推進的技術是什麼?
目前有多項與太空旅行等離子體推進系統相關的研究和開發工作正在進行。目前使用的最先進的等離子體推進系統之一是霍爾推進器(Hall thruster)。
霍爾推進器是一種靜電推進系統,利用電場加速帶電粒子。它已經在多個太空任務中得到應用,包括深空一號(Deep Space 1)、黎明號(Dawn)和貝皮科倫坡號(BepiColombo)。與傳統的化學火箭相比,霍爾推進器具有效率高、燃料需求低以及能夠長時間連續運行等優點。
雖然霍爾推進器是目前使用的最先進的等離子體推進系統,但研究人員正在努力開發更先進的系統。例如,研究人員正在探索磁流體動力學(MHD)推進系統的應用,該系統利用磁場偏轉等離子體流以產生推力。MHD推進系統具有比霍爾推進器更高的性能潛力,但仍處於早期開發階段。
綜上所述,霍爾推進器是目前我們最接近等離子體推進的實用技術,但正在進行的研究和開發工作正在探索更先進的系統,如MHD推進。
Follow-on: 開發和使用用於太空旅行的等離子體推進系統面臨哪些挑戰,研究人員如何應對這些挑戰?
You: 磁流體動力學推進系統的物理方程式是什麼?請儘可能詳細說明。
磁流體動力學(MHD)推進系統利用磁場偏轉等離子體流以產生推力。描述MHD推進系統物理原理的方程式很複雜,涉及多個變量,包括磁場強度、電流密度、流速和等離子體特性。
MHD推進系統的一個關鍵方程式是歐姆定律,它將電流密度與施加的電場和等離子體的電阻率聯繫起來。方程式如下:
J = σE
其中,J是電流密度,σ是電導率,E是施加的電場。
另一個重要的方程式是納維 - 斯托克斯方程,它描述了等離子體的流動。方程式如下:
µ(∂v/∂t) = -∇p + ∇xF + ∇xσT + G
其中,µ是動態粘度,v是速度矢量,p是流體壓力,F是體積力,σT是應力張量,G是由洛倫茲力產生的體積力。
洛倫茲力是帶電粒子在磁場中受到的力。洛倫茲力的方程式如下:
F = q(E + v x B)
其中,F是力,q是粒子的電荷,E是電場,v是粒子的速度,B是磁場。
這些方程式只是描述MHD推進系統物理原理的眾多方程式中的幾個例子。實際的方程式和分析將取決於推進系統的具體設計和運行條件。
綜上所述,MHD推進系統的方程式很複雜,涉及多個變量,包括電流密度、施加的電場、流體壓力、流體速度、磁場和洛倫茲力。這些方程式用於建模和分析用於太空旅行的MHD推進系統的性能。
You: 好的。在這裡能與弦理論建立聯繫嗎?
當然可以。弦理論是物理學中的一個理論框架,旨在統一自然界的基本力,包括引力、電磁力以及強核力和弱核力。在弦理論中,物質的基本組成部分不是點狀粒子,而是微小的振動弦。
在等離子體推進系統的背景下,通過磁流體動力學(MHD)的概念與弦理論建立了聯繫。MHD描述了導電流體(如等離子體)在磁場中的流動。描述MHD的方程式源自經典電磁學的方程式,這些方程式也用於弦理論中描述基本粒子的行為。
特別是,洛倫茲力是MHD和等離子體推進系統中的一個關鍵概念,也是弦理論中的一個基本概念。洛倫茲力是帶電粒子與電磁場相互作用時受到的力,它在弦理論中弦的行為中起著至關重要的作用。
此外,弦理論的某些方面表明,物質的基本組成部分(包括等離子體)可能具有超越經典物理學描述的額外屬性。例如,弦理論預測存在超出我們熟悉的三個空間維度的額外維度,這些額外維度可能會影響等離子體和其他物質形式的行為。
綜上所述,雖然等離子體推進系統與弦理論之間沒有直接聯繫,但通過使用經典電磁學的方程式建立了間接聯繫。此外,弦理論的某些方面表明,物質的基本組成部分可能具有超越經典物理學描述的額外屬性。
開源大語言模型排行榜評估結果
詳細結果可查看此處
屬性 | 詳情 |
---|---|
平均得分 | 64.63 |
ARC(25次提示) | 68.77 |
HellaSwag(10次提示) | 87.57 |
MMLU(5次提示) | 68.81 |
TruthfulQA(0次提示) | 57.69 |
Winogrande(5次提示) | 83.9 |
GSM8K(5次提示) | 35.25 |
DROP(3次提示) | 50.41 |
🔧 技術細節
文檔未提供相關技術細節內容。
📄 許可證
本模型使用的許可證為:llama2。
Phi 2 GGUF
其他
Phi-2是微軟開發的一個小型但強大的語言模型,具有27億參數,專注於高效推理和高質量文本生成。
大型語言模型 支持多種語言
P
TheBloke
41.5M
205
Roberta Large
MIT
基於掩碼語言建模目標預訓練的大型英語語言模型,採用改進的BERT訓練方法
大型語言模型 英語
R
FacebookAI
19.4M
212
Distilbert Base Uncased
Apache-2.0
DistilBERT是BERT基礎模型的蒸餾版本,在保持相近性能的同時更輕量高效,適用於序列分類、標記分類等自然語言處理任務。
大型語言模型 英語
D
distilbert
11.1M
669
Llama 3.1 8B Instruct GGUF
Meta Llama 3.1 8B Instruct 是一個多語言大語言模型,針對多語言對話用例進行了優化,在常見的行業基準測試中表現優異。
大型語言模型 英語
L
modularai
9.7M
4
Xlm Roberta Base
MIT
XLM-RoBERTa是基於100種語言的2.5TB過濾CommonCrawl數據預訓練的多語言模型,採用掩碼語言建模目標進行訓練。
大型語言模型 支持多種語言
X
FacebookAI
9.6M
664
Roberta Base
MIT
基於Transformer架構的英語預訓練模型,通過掩碼語言建模目標在海量文本上訓練,支持文本特徵提取和下游任務微調
大型語言模型 英語
R
FacebookAI
9.3M
488
Opt 125m
其他
OPT是由Meta AI發佈的開放預訓練Transformer語言模型套件,參數量從1.25億到1750億,旨在對標GPT-3系列性能,同時促進大規模語言模型的開放研究。
大型語言模型 英語
O
facebook
6.3M
198
1
基於transformers庫的預訓練模型,適用於多種NLP任務
大型語言模型
Transformers

1
unslothai
6.2M
1
Llama 3.1 8B Instruct
Llama 3.1是Meta推出的多語言大語言模型系列,包含8B、70B和405B參數規模,支持8種語言和代碼生成,優化了多語言對話場景。
大型語言模型
Transformers 支持多種語言

L
meta-llama
5.7M
3,898
T5 Base
Apache-2.0
T5基礎版是由Google開發的文本到文本轉換Transformer模型,參數規模2.2億,支持多語言NLP任務。
大型語言模型 支持多種語言
T
google-t5
5.4M
702
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98