Mixtral 8x7B Instruct V0.1 AWQ
M

Mixtral 8x7B Instruct V0.1 AWQ

Developed by TheBloke
Mixtral 8X7B Instruct v0.1 - AWQはMixtralモデルに基づく量子化バージョンで、AWQ量子化方法を採用し、精度を保ちながら推論速度を向上させ、メモリ要件を削減します。
Downloads 2,203
Release Time : 12/11/2023

Model Overview

このモデルは多言語対応の効率的な量子化大規模言語モデルで、さまざまな推論シナリオに適しており、フランス語、イタリア語、ドイツ語、スペイン語、英語などの多くの言語をサポートします。

Model Features

効率的量子化
AWQ量子化方法を採用し、4ビット量子化をサポートし、GPTQと比較してTransformerベースの推論でより速い速度を提供し、品質は同等またはそれ以上です。
多言語サポート
フランス語、イタリア語、ドイツ語、スペイン語、英語などの多くの言語をサポートします。
幅広い互換性
text - generation - webui、vLLM、Hugging Face Text Generation Inference (TGI)、Transformersなど、さまざまな推論ツールとフレームワークをサポートします。

Model Capabilities

テキスト生成
多言語テキスト処理
命令追従

Use Cases

コンテンツ生成
AI知識QA
人工知能に関するさまざまな質問に答えます
正確で詳細なAI関連の知識を生成します
物語作成
ヒントに基づいて創造的な物語を生成します
首尾一貫した創造的な物語コンテンツを生成します
教育支援
数学問題解決
基礎的な数学問題を解きます
正しい数学計算と説明を提供します

Featured Recommended AI Models

AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase