🚀 WizardLM-2-7B-abliterated
這是基於 @failspy
實現的、具有正交化bfloat16 safetensor權重的 WizardLM-2-7B 模型。更多信息如下:
📦 GGUF文件
我將在此處上傳一些GGUF文件:https://huggingface.co/fearlessdots/WizardLM-2-7B-abliterated-GGUF
💬 提示模板
此模型使用 Vicuna 的提示格式,並支持 多輪 對話。
原始模型卡片:
🏠 WizardLM-2發佈博客
🤗 HF倉庫 •🐱 Github倉庫 • 🐦 Twitter • 📃 [WizardLM] • 📃 [WizardCoder] • 📃 [WizardMath]
👋 加入我們的 Discord
🗞️ 新聞 🔥🔥🔥 [2024/04/15]
我們推出並開源了下一代最先進的大語言模型WizardLM-2,它在複雜對話、多語言、推理和智能體等方面的性能有所提升。新系列包括三款前沿模型:WizardLM-2 8x22B、WizardLM-2 70B和WizardLM-2 7B。
- WizardLM-2 8x22B是我們最先進的模型,與領先的專有模型相比表現出極具競爭力的性能,並且始終優於所有現有的最先進開源模型。
- WizardLM-2 70B達到了頂級推理能力,是相同規模下的首選。
- WizardLM-2 7B是最快的模型,並且與現有規模大10倍的開源領先模型取得了相當的性能。
有關WizardLM-2的更多詳細信息,請閱讀我們的 發佈博客文章 和即將發表的論文。
📋 模型詳情
💪 模型能力
MT-Bench
我們還採用了lmsys提出的基於GPT-4的自動MT-Bench評估框架來評估模型性能。WizardLM-2 8x22B與最先進的專有模型相比,甚至表現出極具競爭力的性能。同時,WizardLM-2 7B和WizardLM-2 70B在7B到70B模型規模的其他領先基線模型中均為表現最佳的模型。
人工偏好評估
我們精心收集了一組複雜且具有挑戰性的真實世界指令集,其中包括人類的主要需求,如寫作、編碼、數學、推理、智能體和多語言。我們報告了無平局的勝負率:
- WizardLM-2 8x22B僅略遜於GPT-4-1106-preview,並且明顯強於Command R Plus和GPT4-0314。
- WizardLM-2 70B優於GPT4-0613、Mistral-Large和Qwen1.5-72B-Chat。
- WizardLM-2 7B與Qwen1.5-32B-Chat相當,並且超越了Qwen1.5-14B-Chat和Starling-LM-7B-beta。
🛠️ 方法概述
我們構建了一個 全AI驅動的合成訓練系統 來訓練WizardLM-2模型,有關該系統的更多詳細信息,請參考我們的 博客。
💻 使用方法
⚠️ 重要提示
WizardLM-2 採用 Vicuna 的提示格式,並支持 多輪 對話。提示應如下所示:
A chat between a curious user and an artificial intelligence assistant. The assistant gives helpful,
detailed, and polite answers to the user's questions. USER: Hi ASSISTANT: Hello.</s>
USER: Who are you? ASSISTANT: I am WizardLM.</s>......
推理WizardLM-2演示腳本
我們在github上提供了一個WizardLM-2推理演示 代碼。
📄 許可證
本項目採用Apache-2.0許可證。