S

Smaug 72B V0.1

Developed by abacusai
平均スコア80%を初めて突破したオープンソース大規模言語モデル。MoMo-72B-lora-1.8.7-DPOを微調整し、革新的なDPO-Positive技術で選好学習を最適化
Downloads 119
Release Time : 2/2/2024

Model Overview

72Bパラメータ規模のオープンソース大規模言語モデル。HuggingFaceオープンLLMリーダーボードで優れた性能を発揮し、複雑な推論、数学計算、テキスト生成などのタスクに適している

Model Features

DPO-Positive最適化
革新的なDPOP損失関数を採用し、数学データセットにおける標準DPOの確率低下問題を効果的に解決
高性能
HuggingFaceオープンLLMリーダーボードで平均スコア80%を初めて突破したオープンソースモデル
マルチタスク最適化
ARC、HellaSwag、MetaMathなどの多様なデータセットで優れた性能を発揮

Model Capabilities

複雑なテキスト生成
数学問題解決
プログラミングコード生成
マルチターン対話
知識質問応答
論理的推論

Use Cases

コンテンツ作成
技術記事執筆
構造化されたアウトラインを含む技術比較記事を生成
スマートフォン機能比較の例に示す通り
教育支援
数学問題解答
確率計算などの数学問題を段階的に解決
確率計算の例に示す通り
ソフトウェア開発
アルゴリズム実装
基本的なアルゴリズムコードを記述
配列交差検索の例に示す通り
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase