🚀 🏆 ZeroXClem-Llama-3.1-8B-SpecialTitanFusion 🏆
這是一款強大的泰坦級模型融合體,專為提升角色扮演、創造力和智能水平而設計。

🚀 快速開始
本模型可通過以下兩種方式使用:
🔥 Ollama(快速推理)
你可以使用 Ollama 直接運行模型進行測試:
ollama run hf.co/ZeroXClem-Llama-3.1-8B-SpecialTitanFusion
🤗 Hugging Face Transformers(Python)
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
import torch
model_name = "ZeroXClem-Llama-3.1-8B-SpecialTitanFusion"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.bfloat16,
device_map="auto"
)
text_generator = pipeline(
"text-generation",
model=model,
tokenizer=tokenizer,
torch_dtype=torch.bfloat16,
device_map="auto"
)
prompt = "Describe the significance of AI ethics in modern technology."
outputs = text_generator(
prompt,
max_new_tokens=200,
do_sample=True,
temperature=0.7,
top_k=50,
top_p=0.95
)
print(outputs[0]["generated_text"])
✨ 主要特性
- 🔹 高度動態的寫作能力:非常適合講故事、構建世界和創意應用。
- 🔹 卓越的角色扮演能力:增強了角色處理能力、深度情感響應和沉浸式對話生成。
- 🔹 更好的結構化回憶:提高了大上下文對話的一致性。
- 🔹 平衡且無限制的回覆:適用於不同的使用場景。
📦 安裝指南
文檔中未提及具體安裝步驟,可參考上述使用示例中的運行方式。
📚 詳細文檔
📌 概述
ZeroXClem-Llama-3.1-8B-SpecialTitanFusion 是一個精心製作的模型融合體,利用了 最先進的Transformer架構。通過 mergekit
,我們將多個高性能的Llama-3.1模型進行了合併,以增強 上下文保留、創造力和細緻的文本生成能力。
該模型基於 kromeurus/L3.1-Siithamo-v0.4-8B,並使用 model_stock
方法精心選擇模型進行合併。
🛠 合併詳情
🔄 合併方法:model_stock
此模型使用 model_stock 方法進行合併,確保所有貢獻架構的平衡和優化融合。
📑 合併的模型
以下模型為此次融合做出了貢獻:
⚙ 配置
name: ZeroXClem-Llama-3.1-8B-SpecialTitanFusion
base_model: kromeurus/L3.1-Siithamo-v0.4-8B
dtype: bfloat16
merge_method: model_stock
models:
- model: bunnycore/Llama-3.1-8B-TitanFusion-Test
- model: vicgalle/Roleplay-Hermes-3-Llama-3.1-8B
- model: vicgalle/Humanish-Roleplay-Llama-3.1-8B
- model: bunnycore/Llama-3.1-8B-TitanFusion-Mix
tokenizer_source: kromeurus/L3.1-Siithamo-v0.4-8B
🔧 推薦使用方法
📜 提示風格
為獲得最佳效果,請使用類似於Llama-3.1 Instruct的系統提示。
示例系統消息:
Think step by step with a logical reasoning and intellectual sense before you provide any response.
為了在角色扮演中增強創造力,可嘗試:
### Instruction:
You are an advanced roleplaying assistant. Maintain deep character consistency and immersive storytelling.
🏗 模型設置
為獲得 最佳輸出質量,請使用以下設置:
Temperature: 1.2
Min P: 0.1
Repeat Penalty: 1.05
Repeat Penalty Tokens: 256
Smooth Sampling: 0.18
🔥 免責聲明
- 🔹 請負責任地使用!
此模型遵循 Meta的Llama-3.1社區許可協議。它是一個 未經過審查 的模型,這意味著應根據具體使用場景實施對齊。
- 🔹 你應對生成的內容負責。
在生產環境中部署此模型時,請確保遵守道德AI準則。
💬 反饋與貢獻
如果您有建議或改進意見,請隨時 在Hugging Face上開啟討論!讓我們繼續改進 Llama-3.1的模型融合遊戲!🚀
詳細結果可查看 此處
指標 |
值 |
平均值 |
29.23 |
IFEval (0-Shot) |
74.02 |
BBH (3-Shot) |
34.82 |
MATH Lvl 5 (4-Shot) |
23.34 |
GPQA (0-shot) |
6.60 |
MuSR (0-shot) |
7.49 |
MMLU-PRO (5-shot) |
29.12 |
📄 許可證
本模型採用 Apache-2.0 許可證。