🚀 MaziyarPanahi/calme-3.1-instruct-78b
MaziyarPanahi/calme-3.1-instruct-78b
是基于强大的 Qwen/Qwen2.5-72B
模型进一步优化的版本,通过微调提升了其在通用领域的性能。该模型将 Qwen2.5-72B
基础模型进行自合并以扩大规模,随后在自定义数据集上进行微调训练。

💡 使用建议
这是一个实验性模型,对于某些提示可能表现不佳,并且可能对超参数敏感。如果您能提供反馈,我将不胜感激,以便在后续迭代中修复问题。 ❤️
🚀 快速开始
量化 GGUF 版本
感谢 mradermacher
提供的量化 GGUF 版本:calme-3.1-instruct-78b-GGUF
模型评估结果
您可以在 Open LLM Leaderboard 查看该模型的详细评估结果,具体数据可点击 此处 查看。
指标 |
数值 |
平均值 |
51.20 |
IFEval (0-Shot) |
81.36 |
BBH (3-Shot) |
62.41 |
MATH Lvl 5 (4-Shot) |
38.75 |
GPQA (0-shot) |
19.46 |
MuSR (0-shot) |
36.50 |
MMLU-PRO (5-shot) |
68.72 |
提示模板
该模型使用 ChatML
提示模板:
<|im_start|>system
{系统提示内容}
<|im_end|>
<|im_start|>user
{用户输入内容}
<|im_end|>
<|im_start|>assistant
{模型回复内容}
代码调用示例
基础用法
from transformers import pipeline
messages = [
{"role": "user", "content": "你是谁?"},
]
pipe = pipeline("text-generation", model="MaziyarPanahi/calme-3.1-instruct-78b")
pipe(messages)
高级用法
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("MaziyarPanahi/calme-3.1-instruct-78b")
model = AutoModelForCausalLM.from_pretrained("MaziyarPanahi/calme-3.1-instruct-78b")
📚 详细文档
伦理考量
与任何大型语言模型一样,用户应注意潜在的偏差和局限性。我们建议在生产环境中部署此模型时实施适当的安全措施和人工监督。
📄 许可证
本模型使用 qwen
许可证,详细内容请查看 许可证链接。
🔍 模型信息
属性 |
详情 |
模型类型 |
基于 Qwen/Qwen2.5-72B 微调的文本生成模型 |
训练数据 |
自定义数据集 |
模型创建者 |
MaziyarPanahi |
量化者 |
MaziyarPanahi |
基础模型 |
MaziyarPanahi/calme-3-selfmerge-qwen2-78b |
模型名称 |
calme-3.1-instruct-78b |
任务类型 |
文本生成 |
推理功能 |
否 |