🚀 MaziyarPanahi/calme-3.1-instruct-78b
MaziyarPanahi/calme-3.1-instruct-78b
是基於強大的 Qwen/Qwen2.5-72B
模型進一步優化的版本,通過微調提升了其在通用領域的性能。該模型將 Qwen2.5-72B
基礎模型進行自合併以擴大規模,隨後在自定義數據集上進行微調訓練。

💡 使用建議
這是一個實驗性模型,對於某些提示可能表現不佳,並且可能對超參數敏感。如果您能提供反饋,我將不勝感激,以便在後續迭代中修復問題。 ❤️
🚀 快速開始
量化 GGUF 版本
感謝 mradermacher
提供的量化 GGUF 版本:calme-3.1-instruct-78b-GGUF
模型評估結果
您可以在 Open LLM Leaderboard 查看該模型的詳細評估結果,具體數據可點擊 此處 查看。
指標 |
數值 |
平均值 |
51.20 |
IFEval (0-Shot) |
81.36 |
BBH (3-Shot) |
62.41 |
MATH Lvl 5 (4-Shot) |
38.75 |
GPQA (0-shot) |
19.46 |
MuSR (0-shot) |
36.50 |
MMLU-PRO (5-shot) |
68.72 |
提示模板
該模型使用 ChatML
提示模板:
<|im_start|>system
{系統提示內容}
<|im_end|>
<|im_start|>user
{用戶輸入內容}
<|im_end|>
<|im_start|>assistant
{模型回覆內容}
代碼調用示例
基礎用法
from transformers import pipeline
messages = [
{"role": "user", "content": "你是誰?"},
]
pipe = pipeline("text-generation", model="MaziyarPanahi/calme-3.1-instruct-78b")
pipe(messages)
高級用法
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("MaziyarPanahi/calme-3.1-instruct-78b")
model = AutoModelForCausalLM.from_pretrained("MaziyarPanahi/calme-3.1-instruct-78b")
📚 詳細文檔
倫理考量
與任何大型語言模型一樣,用戶應注意潛在的偏差和侷限性。我們建議在生產環境中部署此模型時實施適當的安全措施和人工監督。
📄 許可證
本模型使用 qwen
許可證,詳細內容請查看 許可證鏈接。
🔍 模型信息
屬性 |
詳情 |
模型類型 |
基於 Qwen/Qwen2.5-72B 微調的文本生成模型 |
訓練數據 |
自定義數據集 |
模型創建者 |
MaziyarPanahi |
量化者 |
MaziyarPanahi |
基礎模型 |
MaziyarPanahi/calme-3-selfmerge-qwen2-78b |
模型名稱 |
calme-3.1-instruct-78b |
任務類型 |
文本生成 |
推理功能 |
否 |