Mera Mix 4x7B
mera-mix-4x7Bは、Mixtral-8x7Bの半分の規模を持つエキスパート混合(MoE)モデルで、同等の性能を維持しながら推論速度が速いです。
ダウンロード数 2,375
リリース時間 : 4/13/2024
モデル概要
これは4つのエキスパートを混合したモデルで、Mixtral-8x7Bの代替として設計され、類似のテキスト生成能力を提供しながら、より効率的な推論性能を実現します。
モデル特徴
効率的な推論
Mixtral-8x7Bと比較してパラメータ規模が半分でありながら同等の性能を維持し、推論速度が向上
卓越した性能
OpenLLM評価で75.91点を獲得し、Mixtral-8x7BやMixtral-8x22Bを上回る
エキスパート混合アーキテクチャ
4つのエキスパート混合設計を採用し、モデル容量と計算効率のバランスを実現
モデル能力
テキスト生成
推論タスク処理
多肢選択問題解答
数学問題解決
使用事例
学術評価
AI2推論チャレンジ
複雑な推論問題の処理
標準化精度72.95
MMLU評価
多分野の知識理解と応用
精度64.44
常識推論
HellaSwag評価
日常的な状況における常識推論
標準化精度89.17
Winogrande評価
照応解決タスク
精度85.64
真実性評価
TruthfulQA評価
真実性のある質問回答
mc2スコア77.17
数学問題解決
GSM8k評価
小学校レベルの数学問題解答
精度66.11
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98