🚀 Esper 3:基于Qwen 3的编码与推理专家模型
Esper 3是基于Qwen 3构建的模型,在编码、架构设计和DevOps推理方面表现出色。它经过精心微调,能有效解决各类问题,无论是在本地桌面、移动设备,还是服务器上,都能提供出色的性能。
🚀 快速开始
- 支持开源项目:支持我们的开源数据集和模型发布!
- 模型版本:Esper 3有不同的版本可供选择,包括 [Qwen3 - 4B](https://huggingface.co/ValiantLabs/Qwen3 - 4B - Esper3)、[Qwen3 - 8B](https://huggingface.co/ValiantLabs/Qwen3 - 8B - Esper3) 和 [Qwen3 - 14B](https://huggingface.co/ValiantLabs/Qwen3 - 14B - Esper3)。
✨ 主要特性
- 精细微调:在使用Deepseek R1生成的 [DevOps和架构推理](https://huggingface.co/datasets/sequelbox/Titanium2.1 - DeepSeek - R1) 以及 [代码推理](https://huggingface.co/datasets/sequelbox/Tachibana2 - DeepSeek - R1) 数据上进行了微调。
- 推理能力提升:改进了 [通用和创造性推理](https://huggingface.co/datasets/sequelbox/Raiden - DeepSeek - R1) 能力,增强了解决问题和日常对话的性能。
- 灵活部署:模型规模较小,支持在本地桌面和移动设备上运行,同时在服务器上推理速度极快。
📦 安装指南
文档未提及具体安装步骤,故跳过此章节。
💻 使用示例
基础用法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "ValiantLabs/Qwen3-8B-Esper3"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
prompt = "Write a Terraform configuration that uses the `aws_ami` data source to find the latest Amazon Linux 2 AMI. Then, provision an EC2 instance using this dynamically determined AMI ID."
messages = [
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=32768
)
output_ids = generated_ids[0][len(model_inputs.input_ids[0]):].tolist()
try:
index = len(output_ids) - output_ids[::-1].index(151668)
except ValueError:
index = 0
thinking_content = tokenizer.decode(output_ids[:index], skip_special_tokens=True).strip("\n")
content = tokenizer.decode(output_ids[index:], skip_special_tokens=True).strip("\n")
print("thinking content:", thinking_content)
print("content:", content)
📚 详细文档
Esper 3使用 [Qwen 3](https://huggingface.co/Qwen/Qwen3 - 8B) 的提示格式。作为推理微调模型,建议在所有对话中启用 enable_thinking = True
。
🔧 技术细节
文档未提供具体技术实现细节,故跳过此章节。
📄 许可证
本项目采用 apache - 2.0
许可证。
其他信息
- 数据集:模型基于以下数据集进行训练:
- [sequelbox/Titanium2.1 - DeepSeek - R1](https://huggingface.co/datasets/sequelbox/Titanium2.1 - DeepSeek - R1)
- [sequelbox/Tachibana2 - DeepSeek - R1](https://huggingface.co/datasets/sequelbox/Tachibana2 - DeepSeek - R1)
- [sequelbox/Raiden - DeepSeek - R1](https://huggingface.co/datasets/sequelbox/Raiden - DeepSeek - R1)
- 模型创建者:Esper 3由 Valiant Labs 创建。
- 更多模型:查看我们的HuggingFace页面,了解所有模型!

