🚀 Esper 3:基於Qwen 3的編碼與推理專家模型
Esper 3是基於Qwen 3構建的模型,在編碼、架構設計和DevOps推理方面表現出色。它經過精心微調,能有效解決各類問題,無論是在本地桌面、移動設備,還是服務器上,都能提供出色的性能。
🚀 快速開始
- 支持開源項目:支持我們的開源數據集和模型發佈!
- 模型版本:Esper 3有不同的版本可供選擇,包括 [Qwen3 - 4B](https://huggingface.co/ValiantLabs/Qwen3 - 4B - Esper3)、[Qwen3 - 8B](https://huggingface.co/ValiantLabs/Qwen3 - 8B - Esper3) 和 [Qwen3 - 14B](https://huggingface.co/ValiantLabs/Qwen3 - 14B - Esper3)。
✨ 主要特性
- 精細微調:在使用Deepseek R1生成的 [DevOps和架構推理](https://huggingface.co/datasets/sequelbox/Titanium2.1 - DeepSeek - R1) 以及 [代碼推理](https://huggingface.co/datasets/sequelbox/Tachibana2 - DeepSeek - R1) 數據上進行了微調。
- 推理能力提升:改進了 [通用和創造性推理](https://huggingface.co/datasets/sequelbox/Raiden - DeepSeek - R1) 能力,增強了解決問題和日常對話的性能。
- 靈活部署:模型規模較小,支持在本地桌面和移動設備上運行,同時在服務器上推理速度極快。
📦 安裝指南
文檔未提及具體安裝步驟,故跳過此章節。
💻 使用示例
基礎用法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "ValiantLabs/Qwen3-8B-Esper3"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
prompt = "Write a Terraform configuration that uses the `aws_ami` data source to find the latest Amazon Linux 2 AMI. Then, provision an EC2 instance using this dynamically determined AMI ID."
messages = [
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=32768
)
output_ids = generated_ids[0][len(model_inputs.input_ids[0]):].tolist()
try:
index = len(output_ids) - output_ids[::-1].index(151668)
except ValueError:
index = 0
thinking_content = tokenizer.decode(output_ids[:index], skip_special_tokens=True).strip("\n")
content = tokenizer.decode(output_ids[index:], skip_special_tokens=True).strip("\n")
print("thinking content:", thinking_content)
print("content:", content)
📚 詳細文檔
Esper 3使用 [Qwen 3](https://huggingface.co/Qwen/Qwen3 - 8B) 的提示格式。作為推理微調模型,建議在所有對話中啟用 enable_thinking = True
。
🔧 技術細節
文檔未提供具體技術實現細節,故跳過此章節。
📄 許可證
本項目採用 apache - 2.0
許可證。
其他信息
- 數據集:模型基於以下數據集進行訓練:
- [sequelbox/Titanium2.1 - DeepSeek - R1](https://huggingface.co/datasets/sequelbox/Titanium2.1 - DeepSeek - R1)
- [sequelbox/Tachibana2 - DeepSeek - R1](https://huggingface.co/datasets/sequelbox/Tachibana2 - DeepSeek - R1)
- [sequelbox/Raiden - DeepSeek - R1](https://huggingface.co/datasets/sequelbox/Raiden - DeepSeek - R1)
- 模型創建者:Esper 3由 Valiant Labs 創建。
- 更多模型:查看我們的HuggingFace頁面,瞭解所有模型!

