🚀 🧠 ZeroXClem-Llama-3.1-8B-Athena-Apollo-exp
ZeroXClem-Llama-3.1-8B-Athena-Apollo-exp 是一個強大的人工智能模型,它通過使用 MergeKit 進行 模型庫存合併 構建而成。該模型融合了多個在 Hugging Face 上可用的基於 Llama-3.1 的強大且精細的模型,針對 指令遵循、角色扮演、邏輯推理、編碼和創意寫作 等任務進行了性能優化。
通過將多種不同的微調架構融合成一個統一的混合模型,這個模型在保留專業優勢的同時,展現出了出色的通用能力。
🚀 快速開始
使用示例
基礎用法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "ZeroXClem/Llama-3.1-8B-Athena-Apollo-exp"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto")
prompt = "Explain quantum entanglement like I'm 10 years old."
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Ollama 使用說明
ollama run hf.co/ZeroXClem/Llama-3.1-8B-Athena-Apollo-exp-Q4_K_M-GGUF
✨ 主要特性
- 出色的指令遵循能力 — 融合瞭如 Apollo-exp 和 Athena-k 等與 Tulu 對齊並經過指令微調的模型,能夠提供高質量、具有上下文感知的回覆。
- 沉浸式角色扮演與個性表達 — 得益於 Athena 多樣化的角色扮演融合,具備強大的角色扮演人設和情感細膩度。
- 創意與結構化生成 — 通過整合 l2/l3 模型,支持創意寫作、長上下文小說創作和形式邏輯建模。
- 深度對話能力 — 由於 Apollo-exp 中類似 Claude 的微調,增強了進行多層次和哲學性對話的能力。
📦 安裝指南
文檔未提供具體安裝步驟,可參考使用示例中的代碼進行模型加載。
📚 詳細文檔
🔧 合併詳情
💡 參與合併的模型
以下模型共同促成了這個強大的融合模型:
🧪 配置信息
name: ZeroXClem-Llama-3.1-8B-Athena-Apollo-exp
base_model: mergekit-community/L3.1-Athena-l3-8B
dtype: bfloat16
merge_method: model_stock
models:
- model: rootxhacker/Apollo-exp-8B
- model: mergekit-community/L3.1-Athena-k-8B
- model: mergekit-community/L3.1-Athena-l2-8B
- model: mergekit-community/L3.1-Athena-l-8B
tokenizer_source: mergekit-community/L3.1-Athena-l3-8B
🎯 使用場景
- 對話式 AI 與角色扮演機器人
- 形式推理與思維鏈任務
- 創意寫作與講故事工具
- 編碼助手
- 教育和研究應用
📄 許可證
📜 許可協議:使用受 Meta Llama 3.1 社區許可協議 約束。
🧭 對齊與倫理
⚠️ 重要提示
此模型未經過過濾,可能會生成不符合對齊規範的內容。在生產環境中部署時,請自行實現 審核層。
⚠️ 重要提示
鼓勵開發者審核輸出內容,併為下游應用維護符合道德的使用政策。
💌 反饋與貢獻
我們歡迎您的反饋、基準測試結果和改進建議!請提交問題或拉取請求進行貢獻,或者在您的結果和項目中標記我們。
ZeroXClem 團隊 | 2025