M

Mistral Orpo Beta

由kaist-ai開發
Mistral-ORPO-β是基於Mistral-7B使用ORPO方法微調的7B參數語言模型,無需監督微調預熱階段即可直接學習偏好。
下載量 18
發布時間 : 3/12/2024

模型概述

這是一個通過ORPO方法優化的7B參數語言模型,專注於文本生成任務,在多個基準測試中表現優異。

模型特點

ORPO優化
使用Odds Ratio Preference Optimization方法,無需監督微調預熱階段即可直接學習偏好
高效微調
僅在61k條UltraFeedback數據集實例上進行微調即獲得優異性能
多任務表現
在AlpacaEval、MT-Bench等多個基準測試中超越同類模型

模型能力

文本生成
對話系統
問答系統
指令跟隨

使用案例

對話系統
智能助手
可用於構建智能對話助手
在AlpacaEval 1.0上達到91.16%勝率
教育應用
教育問答
可用於教育領域的問答系統
在MMLU測試中達到63.26%準確率
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase