🚀 Mixtral-8x22B-Instruct-v0.1-GGUF
このプロジェクトのGGUFおよび量子化モデルは、mistralai/Mixtral-8x22B-Instruct-v0.1モデルに基づいています。これらのモデルは、テキスト生成に使用でき、複数の言語(フランス語、英語、スペイン語、イタリア語、ドイツ語)に対応しています。
🚀 クイックスタート
📦 インストール
必要な量子化モデルのみをダウンロードすることができます。以下のコマンドを使用して、必要な量子化モデルをダウンロードしましょう。
huggingface-cli download MaziyarPanahi/Mixtral-8x22B-Instruct-v0.1-GGUF --local-dir . --include '*Q2_K*gguf'
💻 使用例
基本的な使用法
シャーディングされたモデルをロードするには、以下のコマンドを使用します。llama_load_model_from_file
はファイルの数を検出し、残りのファイルから追加のテンソルをロードします。
llama.cpp/main -m Mixtral-8x22B-Instruct-v0.1.Q2_K-00001-of-00005.gguf -p "Building a website can be done in 10 simple steps:\nStep 1:" -n 1024 -e
高度な使用法
モデルを実行するPythonコードの例を以下に示します。
from transformers import AutoModelForCausalLM
from mistral_common.protocol.instruct.messages import (
AssistantMessage,
UserMessage,
)
from mistral_common.protocol.instruct.tool_calls import (
Tool,
Function,
)
from mistral_common.tokens.tokenizers.mistral import MistralTokenizer
from mistral_common.tokens.instruct.normalize import ChatCompletionRequest
device = "cuda"
tokenizer_v3 = MistralTokenizer.v3()
mistral_query = ChatCompletionRequest(
tools=[
Tool(
function=Function(
name="get_current_weather",
description="Get the current weather",
parameters={
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA",
},
"format": {
"type": "string",
"enum": ["celsius", "fahrenheit"],
"description": "The temperature unit to use. Infer this from the users location.",
},
},
"required": ["location", "format"],
},
)
)
],
messages=[
UserMessage(content="What's the weather like today in Paris"),
],
model="test",
)
encodeds = tokenizer_v3.encode_chat_completion(mistral_query).tokens
model = AutoModelForCausalLM.from_pretrained("mistralai/Mixtral-8x22B-Instruct-v0.1")
model_inputs = encodeds.to(device)
model.to(device)
generated_ids = model.generate(model_inputs, max_new_tokens=1000, do_sample=True)
sp_tokenizer = tokenizer_v3.instruct_tokenizer.tokenizer
decoded = sp_tokenizer.decode(generated_ids[0])
print(decoded)
トークナイザーの比較
HuggingFaceのトークナイザーと独自のトークナイザーを比較する方法を以下に示します。
from mistral_common.protocol.instruct.messages import (
AssistantMessage,
UserMessage,
)
from mistral_common.tokens.tokenizers.mistral import MistralTokenizer
from mistral_common.tokens.instruct.normalize import ChatCompletionRequest
from transformers import AutoTokenizer
tokenizer_v3 = MistralTokenizer.v3()
mistral_query = ChatCompletionRequest(
messages=[
UserMessage(content="How many experts ?"),
AssistantMessage(content="8"),
UserMessage(content="How big ?"),
AssistantMessage(content="22B"),
UserMessage(content="Noice 🎉 !"),
],
model="test",
)
hf_messages = mistral_query.model_dump()['messages']
tokenized_mistral = tokenizer_v3.encode_chat_completion(mistral_query).tokens
tokenizer_hf = AutoTokenizer.from_pretrained('mistralai/Mixtral-8x22B-Instruct-v0.1')
tokenized_hf = tokenizer_hf.apply_chat_template(hf_messages, tokenize=True)
assert tokenized_hf == tokenized_mistral
📚 ドキュメント
関数呼び出しと特殊トークン
このトークナイザーには、関数呼び出しに関連する特殊トークンが含まれています。
- [TOOL_CALLS]
- [AVAILABLE_TOOLS]
- [/AVAILABLE_TOOLS]
- [TOOL_RESULT]
- [/TOOL_RESULTS]
このモデルを関数呼び出しで使用する場合は、SentencePieceTokenizerV3 で行われているように適用することを確認してください。
ミストラルAIチーム
Albert Jiang, Alexandre Sablayrolles, Alexis Tacnet, Antoine Roux,
Arthur Mensch, Audrey Herblin-Stoop, Baptiste Bout, Baudouin de Monicault,
Blanche Savary, Bam4d, Caroline Feldman, Devendra Singh Chaplot,
Diego de las Casas, Eleonore Arcelin, Emma Bou Hanna, Etienne Metzger,
Gianna Lengyel, Guillaume Bour, Guillaume Lample, Harizo Rajaona,
Jean-Malo Delignon, Jia Li, Justus Murke, Louis Martin, Louis Ternon,
Lucile Saulnier, Lélio Renard Lavaud, Margaret Jennings, Marie Pellat,
Marie Torelli, Marie-Anne Lachaux, Nicolas Schuhl, Patrick von Platen,
Pierre Stock, Sandeep Subramanian, Sophia Yang, Szymon Antoniak, Teven Le Scao,
Thibaut Lavril, Timothée Lacroix, Théophile Gervet, Thomas Wang,
Valera Nemychnikova, William El Sayed, William Marshall
📄 ライセンス
このプロジェクトはApache-2.0ライセンスの下で提供されています。
モデル情報
属性 |
详情 |
モデルタイプ |
テキスト生成 |
モデル作成者 |
MaziyarPanahi |
ベースモデル |
mistralai/Mixtral-8x22B-Instruct-v0.1 |
量子化者 |
MaziyarPanahi |
サポート言語 |
フランス語、英語、スペイン語、イタリア語、ドイツ語 |
タグ |
量子化、2-bit、3-bit、4-bit、5-bit、6-bit、8-bit、16-bit、GGUF、mixtral、moe |