🚀 Hyperion-2.0-Mistral-7B
Hyperion-2.0-Mistral-7B 是一款经过微调的先进语言模型,基于 Hyperion-v2.0 数据集训练,可用于科学领域的高级推理,能处理复杂查询和指令。

🚀 快速开始
你可以按照以下代码示例来使用该模型:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Locutusque/Hyperion-1.5-Mistral-7B"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
input_text = "<|im_start|>user\nWhat are the implications of Einstein's theory of relativity in modern physics?<|im_end|>\n<|im_start|>assistant\n"
input_ids = tokenizer.encode(input_text, return_tensors="pt")
outputs = model.generate(input_ids, max_length=200, num_return_sequences=1, temperature=0.8, top_p=0.95, top_k=40, repetition_penalty=1.1)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
✨ 主要特性
- 多领域适用:支持问答、对话式 AI、代码生成、医学文本理解、数学推理和逻辑推理等多种任务。
- 多语言能力:适用于多领域的英文文本处理。
📦 安装指南
文档未提及安装步骤,可参考 transformers
库的官方安装指南进行安装。
💻 使用示例
基础用法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Locutusque/Hyperion-1.5-Mistral-7B"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
input_text = "<|im_start|>user\nWhat are the implications of Einstein's theory of relativity in modern physics?<|im_end|>\n<|im_start|>assistant\n"
input_ids = tokenizer.encode(input_text, return_tensors="pt")
outputs = model.generate(input_ids, max_length=200, num_return_sequences=1, temperature=0.8, top_p=0.95, top_k=40, repetition_penalty=1.1)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
高级用法
文档未提及高级用法示例。
📚 详细文档
模型详情
属性 |
详情 |
模型名称 |
Locutusque/Hyperion-2.0-Mistral-7B |
基础模型 |
mistralai/Mistral-7B-v0.1 |
发布者 |
Locutusque |
模型类型 |
问答、对话式 AI、代码生成、医学文本理解、数学推理、逻辑推理 |
语言 |
多领域英文 |
许可证 |
Apache-2.0 |
模型描述
Locutusque/Hyperion-2.0-Mistral-7B
是一款最先进的语言模型,在 Hyperion-v2.0 数据集上进行了微调,可用于科学领域的高级推理。该模型旨在处理复杂的查询和指令,利用 Hyperion 数据集中丰富多样的信息。其主要用例包括但不限于复杂问答、对话理解、代码生成、医学文本理解、数学推理和逻辑推理。
预期用途
该模型适用于寻求强大工具来解决科学领域挑战性问题的研究人员和从业者。可用于以下场景:
- 科学、医学、数学和计算机科学的 AI 辅导系统。
- 专业人士快速准确检索特定领域信息的辅助工具。
- 需要专注于技术和科学推理的对话式 AI 功能的平台。
- 代码生成自动化和理解复杂编程上下文。
训练数据
Locutusque/Hyperion-2.0-Mistral-7B
模型在 Hyperion-v2.0 数据集的 750,000 个示例上进行了微调,该数据集融合了各种丰富多样且复杂的数据集,包括编程、医学文本、数学问题和推理任务。
量化版本
- ExLlamaV2: https://huggingface.co/bartowski/Hyperion-2.0-Mistral-7B-exl2
- GGUF: https://huggingface.co/bartowski/Hyperion-2.0-Mistral-7B-GGUF
- AWQ: https://huggingface.co/solidrust/Hyperion-2.0-Mistral-7B-AWQ
评估结果
0-shot AGIEval
任务 |
版本 |
过滤条件 |
n-shot |
指标 |
值 |
|
标准误差 |
agieval_nous |
N/A |
none |
0 |
acc |
0.3602 |
± |
0.0929 |
|
|
none |
0 |
acc_norm |
0.3342 |
± |
0.0764 |
- agieval_aqua_rat |
1 |
none |
0 |
acc |
0.2402 |
± |
0.0269 |
|
|
none |
0 |
acc_norm |
0.2441 |
± |
0.0270 |
- agieval_logiqa_en |
1 |
none |
0 |
acc |
0.2965 |
± |
0.0179 |
|
|
none |
0 |
acc_norm |
0.3226 |
± |
0.0183 |
- agieval_lsat_ar |
1 |
none |
0 |
acc |
0.2348 |
± |
0.0280 |
|
|
none |
0 |
acc_norm |
0.2000 |
± |
0.0264 |
- agieval_lsat_lr |
1 |
none |
0 |
acc |
0.3667 |
± |
0.0214 |
|
|
none |
0 |
acc_norm |
0.3373 |
± |
0.0210 |
- agieval_lsat_rc |
1 |
none |
0 |
acc |
0.4981 |
± |
0.0305 |
|
|
none |
0 |
acc_norm |
0.4089 |
± |
0.0300 |
- agieval_sat_en |
1 |
none |
0 |
acc |
0.6359 |
± |
0.0336 |
|
|
none |
0 |
acc_norm |
0.5777 |
± |
0.0345 |
- agieval_sat_en_without_passage |
1 |
none |
0 |
acc |
0.3883 |
± |
0.0340 |
|
|
none |
0 |
acc_norm |
0.3544 |
± |
0.0334 |
- agieval_sat_math |
1 |
none |
0 |
acc |
0.3500 |
± |
0.0322 |
|
|
none |
0 |
acc_norm |
0.2682 |
± |
0.0299 |
分组评估结果
分组 |
版本 |
过滤条件 |
n-shot |
指标 |
值 |
|
标准误差 |
agieval_nous |
N/A |
none |
0 |
acc |
0.3602 |
± |
0.0929 |
|
|
none |
0 |
acc_norm |
0.3342 |
± |
0.0764 |
5-shot AGIEval 即将推出。
🔧 技术细节
文档未提供具体技术细节。
📄 许可证
该模型遵循 Apache-2.0 许可证发布。
⚠️ 重要提示
- 由于数据集的多样性,数据格式和标注质量的差异可能导致模型响应不一致。
- 该模型非常顺从,会响应任何请求。如果计划将其用于企业级部署,请确保使用 DPO 对该模型进行改进。