S

Smaug 72B V0.1

由abacusai開發
首個平均分突破80%的開源大語言模型,基於MoMo-72B-lora-1.8.7-DPO微調,採用創新的DPO-Positive技術優化偏好學習
下載量 119
發布時間 : 2/2/2024

模型概述

72B參數規模的開源大語言模型,在HuggingFace開放大語言模型排行榜中表現優異,適用於複雜推理、數學計算和文本生成等任務

模型特點

DPO-Positive優化
採用創新的DPOP損失函數,有效解決標準DPO在數學數據集上的概率下降問題
高性能表現
HuggingFace開放大語言模型排行榜首個平均分突破80%的開源模型
多任務優化
在ARC、HellaSwag和MetaMath等多樣化數據集上表現優異

模型能力

複雜文本生成
數學問題求解
編程代碼生成
多輪對話
知識問答
邏輯推理

使用案例

內容創作
技術文章撰寫
生成包含結構化提綱的技術對比文章
如智能手機功能對比示例所示
教育輔助
數學問題解答
分步驟解決概率計算等數學問題
如概率計算示例所示
軟件開發
算法實現
編寫基礎算法代碼
如數組交集查找示例所示
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase