🚀 Hyperion-2.0-Mistral-7B
Hyperion-2.0-Mistral-7B 是一款經過微調的先進語言模型,基於 Hyperion-v2.0 數據集訓練,可用於科學領域的高級推理,能處理複雜查詢和指令。

🚀 快速開始
你可以按照以下代碼示例來使用該模型:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Locutusque/Hyperion-1.5-Mistral-7B"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
input_text = "<|im_start|>user\nWhat are the implications of Einstein's theory of relativity in modern physics?<|im_end|>\n<|im_start|>assistant\n"
input_ids = tokenizer.encode(input_text, return_tensors="pt")
outputs = model.generate(input_ids, max_length=200, num_return_sequences=1, temperature=0.8, top_p=0.95, top_k=40, repetition_penalty=1.1)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
✨ 主要特性
- 多領域適用:支持問答、對話式 AI、代碼生成、醫學文本理解、數學推理和邏輯推理等多種任務。
- 多語言能力:適用於多領域的英文文本處理。
📦 安裝指南
文檔未提及安裝步驟,可參考 transformers
庫的官方安裝指南進行安裝。
💻 使用示例
基礎用法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Locutusque/Hyperion-1.5-Mistral-7B"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
input_text = "<|im_start|>user\nWhat are the implications of Einstein's theory of relativity in modern physics?<|im_end|>\n<|im_start|>assistant\n"
input_ids = tokenizer.encode(input_text, return_tensors="pt")
outputs = model.generate(input_ids, max_length=200, num_return_sequences=1, temperature=0.8, top_p=0.95, top_k=40, repetition_penalty=1.1)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
高級用法
文檔未提及高級用法示例。
📚 詳細文檔
模型詳情
屬性 |
詳情 |
模型名稱 |
Locutusque/Hyperion-2.0-Mistral-7B |
基礎模型 |
mistralai/Mistral-7B-v0.1 |
發佈者 |
Locutusque |
模型類型 |
問答、對話式 AI、代碼生成、醫學文本理解、數學推理、邏輯推理 |
語言 |
多領域英文 |
許可證 |
Apache-2.0 |
模型描述
Locutusque/Hyperion-2.0-Mistral-7B
是一款最先進的語言模型,在 Hyperion-v2.0 數據集上進行了微調,可用於科學領域的高級推理。該模型旨在處理複雜的查詢和指令,利用 Hyperion 數據集中豐富多樣的信息。其主要用例包括但不限於複雜問答、對話理解、代碼生成、醫學文本理解、數學推理和邏輯推理。
預期用途
該模型適用於尋求強大工具來解決科學領域挑戰性問題的研究人員和從業者。可用於以下場景:
- 科學、醫學、數學和計算機科學的 AI 輔導系統。
- 專業人士快速準確檢索特定領域信息的輔助工具。
- 需要專注於技術和科學推理的對話式 AI 功能的平臺。
- 代碼生成自動化和理解複雜編程上下文。
訓練數據
Locutusque/Hyperion-2.0-Mistral-7B
模型在 Hyperion-v2.0 數據集的 750,000 個示例上進行了微調,該數據集融合了各種豐富多樣且複雜的數據集,包括編程、醫學文本、數學問題和推理任務。
量化版本
- ExLlamaV2: https://huggingface.co/bartowski/Hyperion-2.0-Mistral-7B-exl2
- GGUF: https://huggingface.co/bartowski/Hyperion-2.0-Mistral-7B-GGUF
- AWQ: https://huggingface.co/solidrust/Hyperion-2.0-Mistral-7B-AWQ
評估結果
0-shot AGIEval
任務 |
版本 |
過濾條件 |
n-shot |
指標 |
值 |
|
標準誤差 |
agieval_nous |
N/A |
none |
0 |
acc |
0.3602 |
± |
0.0929 |
|
|
none |
0 |
acc_norm |
0.3342 |
± |
0.0764 |
- agieval_aqua_rat |
1 |
none |
0 |
acc |
0.2402 |
± |
0.0269 |
|
|
none |
0 |
acc_norm |
0.2441 |
± |
0.0270 |
- agieval_logiqa_en |
1 |
none |
0 |
acc |
0.2965 |
± |
0.0179 |
|
|
none |
0 |
acc_norm |
0.3226 |
± |
0.0183 |
- agieval_lsat_ar |
1 |
none |
0 |
acc |
0.2348 |
± |
0.0280 |
|
|
none |
0 |
acc_norm |
0.2000 |
± |
0.0264 |
- agieval_lsat_lr |
1 |
none |
0 |
acc |
0.3667 |
± |
0.0214 |
|
|
none |
0 |
acc_norm |
0.3373 |
± |
0.0210 |
- agieval_lsat_rc |
1 |
none |
0 |
acc |
0.4981 |
± |
0.0305 |
|
|
none |
0 |
acc_norm |
0.4089 |
± |
0.0300 |
- agieval_sat_en |
1 |
none |
0 |
acc |
0.6359 |
± |
0.0336 |
|
|
none |
0 |
acc_norm |
0.5777 |
± |
0.0345 |
- agieval_sat_en_without_passage |
1 |
none |
0 |
acc |
0.3883 |
± |
0.0340 |
|
|
none |
0 |
acc_norm |
0.3544 |
± |
0.0334 |
- agieval_sat_math |
1 |
none |
0 |
acc |
0.3500 |
± |
0.0322 |
|
|
none |
0 |
acc_norm |
0.2682 |
± |
0.0299 |
分組評估結果
分組 |
版本 |
過濾條件 |
n-shot |
指標 |
值 |
|
標準誤差 |
agieval_nous |
N/A |
none |
0 |
acc |
0.3602 |
± |
0.0929 |
|
|
none |
0 |
acc_norm |
0.3342 |
± |
0.0764 |
5-shot AGIEval 即將推出。
🔧 技術細節
文檔未提供具體技術細節。
📄 許可證
該模型遵循 Apache-2.0 許可證發佈。
⚠️ 重要提示
- 由於數據集的多樣性,數據格式和標註質量的差異可能導致模型響應不一致。
- 該模型非常順從,會響應任何請求。如果計劃將其用於企業級部署,請確保使用 DPO 對該模型進行改進。