M

Mixtral 8x7B V0.1

由mistralai開發
Mixtral-8x7B是一個預訓練的生成式稀疏混合專家模型,在多數基準測試中表現優於Llama 2 70B。
下載量 42.78k
發布時間 : 12/1/2023

模型概述

這是一個多語言支持的大規模語言模型,採用混合專家架構,適用於文本生成任務。

模型特點

混合專家架構
採用稀疏混合專家模型設計,提高模型效率
多語言支持
支持法語、意大利語、德語、西班牙語和英語五種語言
高性能
在多數基準測試中表現優於Llama 2 70B模型

模型能力

多語言文本生成
長文本處理
上下文理解

使用案例

文本生成
內容創作
自動生成文章、故事等創意內容
對話系統
構建智能聊天機器人
語言處理
多語言翻譯
支持多種語言間的翻譯任務
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase