Z

Zephyr Orpo 141b A35b V0.1

由HuggingFaceH4開發
Zephyr 141B-A39B是基於Mixtral-8x22B-v0.1微調的大型語言模型,採用ORPO對齊算法訓練,旨在成為有用的助手。
下載量 3,382
發布時間 : 4/10/2024

模型概述

Zephyr 141B-A39B是一個專家混合(MoE)模型,總參數量141B,激活參數量39B。在聊天、代碼、數學和推理數據的混合上進行了微調,支持英語為主的交互。

模型特點

ORPO對齊算法
採用Odds Ratio Preference Optimization (ORPO)算法進行訓練,比DPO和PPO等方法計算效率更高。
高效訓練
僅使用7k個實例,在4個節點(每個節點8個H100 GPU)上訓練1.3小時完成。
多輪對話能力
基於高質量、多輪合成偏好數據集訓練,具備優秀的對話交互能力。

模型能力

文本生成
多輪對話
代碼生成
數學推理

使用案例

對話助手
智能客服
用於提供客戶支持和解答常見問題
能夠理解複雜問題並提供準確回答
教育輔助
概念解釋
用簡單語言解釋複雜概念
能夠將專業術語轉化為兒童易懂的語言
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase