Mera Mix 4x7B
mera-mix-4x7B是一個專家混合(MoE)模型,規模為Mixtral-8x7B的一半,但性能相當且推理速度更快。
下載量 2,375
發布時間 : 4/13/2024
模型概述
這是一個4專家混合模型,設計用於替代Mixtral-8x7B,提供相似的文本生成能力但更高效的推理性能。
模型特點
高效推理
相比Mixtral-8x7B,參數規模減半但保持相當性能,推理速度更快
卓越性能
在OpenLLM評測中得分75.91,優於Mixtral-8x7B和Mixtral-8x22B
專家混合架構
採用4專家混合設計,平衡模型容量與計算效率
模型能力
文本生成
推理任務處理
多項選擇題解答
數學問題求解
使用案例
學術評估
AI2推理挑戰賽
處理複雜的推理問題
標準化準確率72.95
MMLU評估
多學科知識理解和應用
準確率64.44
常識推理
HellaSwag評估
日常情境的常識推理
標準化準確率89.17
Winogrande評估
指代消解任務
準確率85.64
真實性評估
TruthfulQA評估
真實性問題回答
mc2得分77.17
數學問題求解
GSM8k評估
小學數學問題解答
準確率66.11
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98