🚀 埃斯珀3(Esper 3)模型
埃斯珀3(Esper 3)是基於通義千問3(Qwen 3)構建的編碼、架構和DevOps推理專家模型。它在特定數據集上進行了微調,具備出色的編碼、推理和解決問題的能力,且小模型尺寸允許在本地桌面和移動設備上運行,同時支持超快速的服務器推理。
🚀 快速開始
模型信息
屬性 |
詳情 |
庫名稱 |
transformers |
任務類型 |
文本生成 |
基礎模型 |
Qwen/Qwen3 - 4B |
模型類型 |
Esper 3:[Qwen3 - 4B](https://huggingface.co/ValiantLabs/Qwen3 - 4B - Esper3),[Qwen3 - 8B](https://huggingface.co/ValiantLabs/Qwen3 - 8B - Esper3),[Qwen3 - 14B](https://huggingface.co/ValiantLabs/Qwen3 - 14B - Esper3) |
訓練數據 |
[sequelbox/Titanium2.1 - DeepSeek - R1](https://huggingface.co/datasets/sequelbox/Titanium2.1 - DeepSeek - R1),[sequelbox/Tachibana2 - DeepSeek - R1](https://huggingface.co/datasets/sequelbox/Tachibana2 - DeepSeek - R1),[sequelbox/Raiden - DeepSeek - R1](https://huggingface.co/datasets/sequelbox/Raiden - DeepSeek - R1) |
許可證 |
apache - 2.0 |
支持開源
支持我們的開源數據集和模型發佈!

✨ 主要特性
- 專業微調:在我們使用Deepseek R1生成的[DevOps和架構推理](https://huggingface.co/datasets/sequelbox/Titanium2.1 - DeepSeek - R1)以及[代碼推理](https://huggingface.co/datasets/sequelbox/Tachibana2 - DeepSeek - R1)數據上進行了微調。
- 推理能力提升:改進了[通用和創造性推理](https://huggingface.co/datasets/sequelbox/Raiden - DeepSeek - R1),以補充解決問題和通用聊天性能。
- 輕量級運行:小模型尺寸允許在本地桌面和移動設備上運行,同時支持超快速的服務器推理。
💻 使用示例
基礎用法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "ValiantLabs/Qwen3-4B-Esper3"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
prompt = "Write a Terraform configuration that uses the `aws_ami` data source to find the latest Amazon Linux 2 AMI. Then, provision an EC2 instance using this dynamically determined AMI ID."
messages = [
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=32768
)
output_ids = generated_ids[0][len(model_inputs.input_ids[0]):].tolist()
try:
index = len(output_ids) - output_ids[::-1].index(151668)
except ValueError:
index = 0
thinking_content = tokenizer.decode(output_ids[:index], skip_special_tokens=True).strip("\n")
content = tokenizer.decode(output_ids[index:], skip_special_tokens=True).strip("\n")
print("thinking content:", thinking_content)
print("content:", content)

📄 許可證
本項目採用apache - 2.0許可證。
埃斯珀3由Valiant Labs創建。
查看我們的HuggingFace頁面,瞭解我們的所有模型!
我們關注開源,讓每個人都能使用。