J

Jetmoe 8b Chat

由jetmoe開發
JetMoE-8B是一款高效開源的大語言模型,以10萬美元低成本訓練超越LLaMA2-7B性能,推理時僅激活22億參數
下載量 26
發布時間 : 3/31/2024

模型概述

基於混合專家架構(MoE)的開源大語言模型,專注於高效推理和低成本訓練,適用於對話生成、代碼補全等任務

模型特點

低成本高效訓練
僅用10萬美元成本(96×H100訓練2周)即超越LLaMA2-7B性能
高效推理
推理時僅激活22億參數,顯著降低計算成本
完全開源
使用公開數據集訓練,代碼開源,支持消費級GPU微調
兩階段訓練方案
採用MiniCPM訓練法:階段1基礎訓練+階段2高質量數據微調

模型能力

文本生成
對話系統
代碼補全
數學問題求解
多輪對話

使用案例

對話系統
智能聊天機器人
構建友好且知識豐富的對話助手
MT-Bench評分6.681,超越Llama-2-13b-chat
代碼生成
編程輔助
自動生成和補全代碼
MBPP基準Pass@1達34.2%,優於LLaMA2-7B
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase