M

Mixtral 8x7B Instruct V0.1

mistralaiによって開発
Mixtral-8x7Bは事前学習済みの生成的スパース混合エキスパートモデルで、ほとんどのベンチマークテストでLlama 2 70Bを上回る性能を示しています。
ダウンロード数 505.97k
リリース時間 : 12/10/2023

モデル概要

高性能な多言語大規模言語モデルで、命令追従と生成タスクをサポート

モデル特徴

スパース混合エキスパートアーキテクチャ
8つの7Bパラメータエキスパートモデルの混合アーキテクチャを採用し、推論時には一部のエキスパートのみを活性化することで効率的な計算を実現
多言語サポート
フランス語、イタリア語、ドイツ語、スペイン語、英語の5つの主要なヨーロッパ言語をネイティブサポート
高性能
ほとんどのベンチマークテストでLlama 2 70Bモデルを上回る性能
命令最適化
命令追従能力を特別に最適化しており、対話システムやアシスタントアプリケーションの構築に適している

モデル能力

多言語テキスト生成
対話システム構築
命令理解と実行
知識質問応答
コンテンツ作成

使用事例

対話システム
インテリジェントアシスタント
多言語インテリジェントアシスタントを構築し、ユーザーの命令を理解して応答
自然で流暢なマルチターン対話が可能
コンテンツ生成
多言語コンテンツ作成
複数言語でのマーケティングコピーや記事などのコンテンツを生成
高品質で言語慣習に合致したテキスト出力
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase