🚀 🏆 ZeroXClem-Llama-3.1-8B-SpecialTitanFusion 🏆
这是一款强大的泰坦级模型融合体,专为提升角色扮演、创造力和智能水平而设计。

🚀 快速开始
本模型可通过以下两种方式使用:
🔥 Ollama(快速推理)
你可以使用 Ollama 直接运行模型进行测试:
ollama run hf.co/ZeroXClem-Llama-3.1-8B-SpecialTitanFusion
🤗 Hugging Face Transformers(Python)
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
import torch
model_name = "ZeroXClem-Llama-3.1-8B-SpecialTitanFusion"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.bfloat16,
device_map="auto"
)
text_generator = pipeline(
"text-generation",
model=model,
tokenizer=tokenizer,
torch_dtype=torch.bfloat16,
device_map="auto"
)
prompt = "Describe the significance of AI ethics in modern technology."
outputs = text_generator(
prompt,
max_new_tokens=200,
do_sample=True,
temperature=0.7,
top_k=50,
top_p=0.95
)
print(outputs[0]["generated_text"])
✨ 主要特性
- 🔹 高度动态的写作能力:非常适合讲故事、构建世界和创意应用。
- 🔹 卓越的角色扮演能力:增强了角色处理能力、深度情感响应和沉浸式对话生成。
- 🔹 更好的结构化回忆:提高了大上下文对话的一致性。
- 🔹 平衡且无限制的回复:适用于不同的使用场景。
📦 安装指南
文档中未提及具体安装步骤,可参考上述使用示例中的运行方式。
📚 详细文档
📌 概述
ZeroXClem-Llama-3.1-8B-SpecialTitanFusion 是一个精心制作的模型融合体,利用了 最先进的Transformer架构。通过 mergekit
,我们将多个高性能的Llama-3.1模型进行了合并,以增强 上下文保留、创造力和细致的文本生成能力。
该模型基于 kromeurus/L3.1-Siithamo-v0.4-8B,并使用 model_stock
方法精心选择模型进行合并。
🛠 合并详情
🔄 合并方法:model_stock
此模型使用 model_stock 方法进行合并,确保所有贡献架构的平衡和优化融合。
📑 合并的模型
以下模型为此次融合做出了贡献:
⚙ 配置
name: ZeroXClem-Llama-3.1-8B-SpecialTitanFusion
base_model: kromeurus/L3.1-Siithamo-v0.4-8B
dtype: bfloat16
merge_method: model_stock
models:
- model: bunnycore/Llama-3.1-8B-TitanFusion-Test
- model: vicgalle/Roleplay-Hermes-3-Llama-3.1-8B
- model: vicgalle/Humanish-Roleplay-Llama-3.1-8B
- model: bunnycore/Llama-3.1-8B-TitanFusion-Mix
tokenizer_source: kromeurus/L3.1-Siithamo-v0.4-8B
🔧 推荐使用方法
📜 提示风格
为获得最佳效果,请使用类似于Llama-3.1 Instruct的系统提示。
示例系统消息:
Think step by step with a logical reasoning and intellectual sense before you provide any response.
为了在角色扮演中增强创造力,可尝试:
### Instruction:
You are an advanced roleplaying assistant. Maintain deep character consistency and immersive storytelling.
🏗 模型设置
为获得 最佳输出质量,请使用以下设置:
Temperature: 1.2
Min P: 0.1
Repeat Penalty: 1.05
Repeat Penalty Tokens: 256
Smooth Sampling: 0.18
🔥 免责声明
- 🔹 请负责任地使用!
此模型遵循 Meta的Llama-3.1社区许可协议。它是一个 未经过审查 的模型,这意味着应根据具体使用场景实施对齐。
- 🔹 你应对生成的内容负责。
在生产环境中部署此模型时,请确保遵守道德AI准则。
💬 反馈与贡献
如果您有建议或改进意见,请随时 在Hugging Face上开启讨论!让我们继续改进 Llama-3.1的模型融合游戏!🚀
详细结果可查看 此处
指标 |
值 |
平均值 |
29.23 |
IFEval (0-Shot) |
74.02 |
BBH (3-Shot) |
34.82 |
MATH Lvl 5 (4-Shot) |
23.34 |
GPQA (0-shot) |
6.60 |
MuSR (0-shot) |
7.49 |
MMLU-PRO (5-shot) |
29.12 |
📄 许可证
本模型采用 Apache-2.0 许可证。