M

Mixtral 8x22B V0.1

由v2ray開發
Mixtral-8x22B 是 Mistral AI 發佈的預訓練生成式稀疏混合專家模型,支持多語言處理。
下載量 33
發布時間 : 4/10/2024

模型概述

一個預訓練的生成式稀疏混合專家模型,適用於多語言文本生成任務。

模型特點

稀疏混合專家架構
採用8個22B參數的專家模型組合,實現高效的模型推理
多語言支持
原生支持法語、意大利語、德語、西班牙語和英語五種語言
開源許可
使用Apache-2.0許可證發佈,允許商業和研究使用

模型能力

多語言文本生成
上下文理解
開放域對話

使用案例

文本生成
多語言內容創作
生成不同語言的創意文本內容
對話系統
構建多語言聊天機器人
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase