M

Marcoro14 7B Slerp

Developed by mlabonne
Marcoro14-7B-slerpはmergekitツールで融合された2つの7Bパラメータモデルで、オープンLLMリーダーボードで優れた性能を示しています
Downloads 298
Release Time : 12/29/2023

Model Overview

これはモデル融合技術で作成された7Bパラメータの大規模言語モデルで、Marcoroni-7B-v3とMistral-7B-Merge-14-v0.1の2つのモデルの長所を組み合わせ、多くのベンチマークテストで優れた性能を発揮します。

Model Features

高性能融合モデル
slerp融合法で2つの優れた7Bモデルを組み合わせ、オープンLLMリーダーボードで最高の性能を発揮
多分野での優れた性能
AGIEval、GPT4ALL、TruthfulQA、Bigbenchなど多くのベンチマークテストで優れた成績を収めています
効率的なパラメータ利用
わずか7Bパラメータ規模でありながら、より大きなパラメータのモデル性能を凌駕しています

Model Capabilities

テキスト生成
質問応答システム
論理的推論
数学計算
常識理解

Use Cases

教育
学術的質問応答
様々な学術的質問に回答、特に論理的推論と数学計算で優れた性能を発揮
GSM8k数学テストで70.89%の精度を達成
研究
ベンチマーク研究
効率的な小規模モデルのベンチマークリファレンスとして
7Bパラメータレベルのモデルで最高の性能
ビジネスアプリケーション
インテリジェントカスタマーサポート
顧客の問い合わせや問題解決を処理
TruthfulQAテストで63.54点を獲得
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase