M

Mixtral 8x22B V0.1 GGUF

MaziyarPanahiによって開発
Mixtral 8x22BはMistralAIがリリースした1760億パラメータの混合エキスパートモデルで、多言語テキスト生成タスクをサポートします。
ダウンロード数 170.27k
リリース時間 : 4/10/2024

モデル概要

これは混合エキスパートアーキテクチャに基づく大規模言語モデルで、フランス語、英語、スペイン語、イタリア語、ドイツ語など複数言語のテキスト生成をサポートします。モデルはApache 2.0ライセンスでリリースされており、リソース要件を低減するための量子化をサポートしています。

モデル特徴

大規模混合エキスパートアーキテクチャ
1760億パラメータの混合エキスパートアーキテクチャを採用し、推論時には約350億パラメータがアクティブになり、性能と効率のバランスを実現
多言語サポート
フランス語、英語、スペイン語、イタリア語、ドイツ語など複数言語のテキスト生成をネイティブサポート
量子化サポート
2ビットから16ビットまでの複数量子化バージョンを提供し、ハードウェア要件を大幅に低減
長文コンテキスト処理
最大65kトークンのコンテキストウィンドウをサポートし、長文ドキュメントや複雑なタスクの処理に適している

モデル能力

多言語テキスト生成
長文処理
クリエイティブライティング
技術文書生成
コンテンツ要約
質問応答システム

使用事例

コンテンツ作成
ウェブサイトコンテンツ生成
ウェブサイト構築ガイドやコンテンツを自動生成
例に示すように、詳細なステップバイステップガイドを生成可能
技術文書作成
技術文書やチュートリアルを自動生成
ビジネスアプリケーション
多言語カスタマーサポート
複数言語をサポートする自動カスタマーサポートシステムを構築
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase