🚀 🧠 ZeroXClem-Llama-3.1-8B-Athena-Apollo-exp
ZeroXClem-Llama-3.1-8B-Athena-Apollo-exp 是一个强大的人工智能模型,它通过使用 MergeKit 进行 模型库存合并 构建而成。该模型融合了多个在 Hugging Face 上可用的基于 Llama-3.1 的强大且精细的模型,针对 指令遵循、角色扮演、逻辑推理、编码和创意写作 等任务进行了性能优化。
通过将多种不同的微调架构融合成一个统一的混合模型,这个模型在保留专业优势的同时,展现出了出色的通用能力。
🚀 快速开始
使用示例
基础用法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "ZeroXClem/Llama-3.1-8B-Athena-Apollo-exp"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto")
prompt = "Explain quantum entanglement like I'm 10 years old."
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Ollama 使用说明
ollama run hf.co/ZeroXClem/Llama-3.1-8B-Athena-Apollo-exp-Q4_K_M-GGUF
✨ 主要特性
- 出色的指令遵循能力 — 融合了如 Apollo-exp 和 Athena-k 等与 Tulu 对齐并经过指令微调的模型,能够提供高质量、具有上下文感知的回复。
- 沉浸式角色扮演与个性表达 — 得益于 Athena 多样化的角色扮演融合,具备强大的角色扮演人设和情感细腻度。
- 创意与结构化生成 — 通过整合 l2/l3 模型,支持创意写作、长上下文小说创作和形式逻辑建模。
- 深度对话能力 — 由于 Apollo-exp 中类似 Claude 的微调,增强了进行多层次和哲学性对话的能力。
📦 安装指南
文档未提供具体安装步骤,可参考使用示例中的代码进行模型加载。
📚 详细文档
🔧 合并详情
💡 参与合并的模型
以下模型共同促成了这个强大的融合模型:
🧪 配置信息
name: ZeroXClem-Llama-3.1-8B-Athena-Apollo-exp
base_model: mergekit-community/L3.1-Athena-l3-8B
dtype: bfloat16
merge_method: model_stock
models:
- model: rootxhacker/Apollo-exp-8B
- model: mergekit-community/L3.1-Athena-k-8B
- model: mergekit-community/L3.1-Athena-l2-8B
- model: mergekit-community/L3.1-Athena-l-8B
tokenizer_source: mergekit-community/L3.1-Athena-l3-8B
🎯 使用场景
- 对话式 AI 与角色扮演机器人
- 形式推理与思维链任务
- 创意写作与讲故事工具
- 编码助手
- 教育和研究应用
📄 许可证
📜 许可协议:使用受 Meta Llama 3.1 社区许可协议 约束。
🧭 对齐与伦理
⚠️ 重要提示
此模型未经过过滤,可能会生成不符合对齐规范的内容。在生产环境中部署时,请自行实现 审核层。
⚠️ 重要提示
鼓励开发者审核输出内容,并为下游应用维护符合道德的使用政策。
💌 反馈与贡献
我们欢迎您的反馈、基准测试结果和改进建议!请提交问题或拉取请求进行贡献,或者在您的结果和项目中标记我们。
ZeroXClem 团队 | 2025