M

Mixtral 8x7B Instruct V0.1

由mistralai開發
Mixtral-8x7B是一個預訓練的生成式稀疏混合專家模型,在多數基準測試中表現優於Llama 2 70B。
下載量 505.97k
發布時間 : 12/10/2023

模型概述

一個高性能的多語言大型語言模型,支持指令跟隨和生成任務

模型特點

稀疏混合專家架構
採用8個7B參數專家模型的混合架構,在推理時僅激活部分專家,實現高效計算
多語言支持
原生支持五種歐洲主要語言,包括法語、意大利語、德語、西班牙語和英語
高性能
在多數基準測試中表現優於Llama 2 70B模型
指令優化
專門優化了指令跟隨能力,適合構建對話系統和助手應用

模型能力

多語言文本生成
對話系統構建
指令理解與執行
知識問答
內容創作

使用案例

對話系統
智能助手
構建多語言智能助手,理解並回應用戶指令
能夠進行自然流暢的多輪對話
內容生成
多語言內容創作
生成多種語言的營銷文案、文章等內容
高質量、符合語言習慣的文本輸出
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase