M

Mera Mix 4x7B

meraGPTによって開発
mera-mix-4x7Bは、Mixtral-8x7Bの半分の規模を持つエキスパート混合(MoE)モデルで、同等の性能を維持しながら推論速度が速いです。
ダウンロード数 2,375
リリース時間 : 4/13/2024

モデル概要

これは4つのエキスパートを混合したモデルで、Mixtral-8x7Bの代替として設計され、類似のテキスト生成能力を提供しながら、より効率的な推論性能を実現します。

モデル特徴

効率的な推論
Mixtral-8x7Bと比較してパラメータ規模が半分でありながら同等の性能を維持し、推論速度が向上
卓越した性能
OpenLLM評価で75.91点を獲得し、Mixtral-8x7BやMixtral-8x22Bを上回る
エキスパート混合アーキテクチャ
4つのエキスパート混合設計を採用し、モデル容量と計算効率のバランスを実現

モデル能力

テキスト生成
推論タスク処理
多肢選択問題解答
数学問題解決

使用事例

学術評価
AI2推論チャレンジ
複雑な推論問題の処理
標準化精度72.95
MMLU評価
多分野の知識理解と応用
精度64.44
常識推論
HellaSwag評価
日常的な状況における常識推論
標準化精度89.17
Winogrande評価
照応解決タスク
精度85.64
真実性評価
TruthfulQA評価
真実性のある質問回答
mc2スコア77.17
数学問題解決
GSM8k評価
小学校レベルの数学問題解答
精度66.11
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase