🚀 埃斯珀3(Esper 3)模型
埃斯珀3(Esper 3)是基于通义千问3(Qwen 3)构建的编码、架构和DevOps推理专家模型。它在特定数据集上进行了微调,具备出色的编码、推理和解决问题的能力,且小模型尺寸允许在本地桌面和移动设备上运行,同时支持超快速的服务器推理。
🚀 快速开始
模型信息
属性 |
详情 |
库名称 |
transformers |
任务类型 |
文本生成 |
基础模型 |
Qwen/Qwen3 - 4B |
模型类型 |
Esper 3:[Qwen3 - 4B](https://huggingface.co/ValiantLabs/Qwen3 - 4B - Esper3),[Qwen3 - 8B](https://huggingface.co/ValiantLabs/Qwen3 - 8B - Esper3),[Qwen3 - 14B](https://huggingface.co/ValiantLabs/Qwen3 - 14B - Esper3) |
训练数据 |
[sequelbox/Titanium2.1 - DeepSeek - R1](https://huggingface.co/datasets/sequelbox/Titanium2.1 - DeepSeek - R1),[sequelbox/Tachibana2 - DeepSeek - R1](https://huggingface.co/datasets/sequelbox/Tachibana2 - DeepSeek - R1),[sequelbox/Raiden - DeepSeek - R1](https://huggingface.co/datasets/sequelbox/Raiden - DeepSeek - R1) |
许可证 |
apache - 2.0 |
支持开源
支持我们的开源数据集和模型发布!

✨ 主要特性
- 专业微调:在我们使用Deepseek R1生成的[DevOps和架构推理](https://huggingface.co/datasets/sequelbox/Titanium2.1 - DeepSeek - R1)以及[代码推理](https://huggingface.co/datasets/sequelbox/Tachibana2 - DeepSeek - R1)数据上进行了微调。
- 推理能力提升:改进了[通用和创造性推理](https://huggingface.co/datasets/sequelbox/Raiden - DeepSeek - R1),以补充解决问题和通用聊天性能。
- 轻量级运行:小模型尺寸允许在本地桌面和移动设备上运行,同时支持超快速的服务器推理。
💻 使用示例
基础用法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "ValiantLabs/Qwen3-4B-Esper3"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
prompt = "Write a Terraform configuration that uses the `aws_ami` data source to find the latest Amazon Linux 2 AMI. Then, provision an EC2 instance using this dynamically determined AMI ID."
messages = [
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=32768
)
output_ids = generated_ids[0][len(model_inputs.input_ids[0]):].tolist()
try:
index = len(output_ids) - output_ids[::-1].index(151668)
except ValueError:
index = 0
thinking_content = tokenizer.decode(output_ids[:index], skip_special_tokens=True).strip("\n")
content = tokenizer.decode(output_ids[index:], skip_special_tokens=True).strip("\n")
print("thinking content:", thinking_content)
print("content:", content)

📄 许可证
本项目采用apache - 2.0许可证。
埃斯珀3由Valiant Labs创建。
查看我们的HuggingFace页面,了解我们的所有模型!
我们关注开源,让每个人都能使用。