🚀 Midm-2.0-Base-Instruct GGUF モデル
Midm-2.0-Base-Instruct GGUFモデルは、テキスト生成に特化したモデルです。このモデルは、特定のアプローチで生成され、量子化の改善や高精度なテキスト生成が可能です。
🚀 クイックスタート
以下は、このモデルを使って会話推論を実行するコードスニペットです。
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfig
model_name = "K-intelligence/Midm-2.0-Base-Instruct"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.bfloat16,
trust_remote_code=True,
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
generation_config = GenerationConfig.from_pretrained(model_name)
prompt = "KT에 대해 소개해줘"
messages = [
{"role": "system",
"content": "Mi:dm(믿:음)은 KT에서 개발한 AI 기반 어시스턴트이다."},
{"role": "user", "content": prompt}
]
input_ids = tokenizer.apply_chat_template(
messages,
tokenize=True,
add_generation_prompt=True,
return_tensors="pt"
)
output = model.generate(
input_ids.to("cuda"),
generation_config=generation_config,
eos_token_id=tokenizer.eos_token_id,
max_new_tokens=128,
do_sample=False,
)
print(tokenizer.decode(output[0]))
⚠️ 重要提示
transformers
ライブラリはバージョン4.45.0
以上が必要です。
✨ 主な機能
- 韓国中心のAIモデル:KTの独自技術を用いて開発された、韓国社会の価値観や常識的推論を深く取り入れたモデルです。
- 2種類のバージョン提供:115億パラメータのBaseモデルと、23億パラメータのMiniモデルがあり、それぞれ異なるニーズに対応しています。
- 新しい量子化アプローチ:キーレイヤーの精度を選択的に向上させる量子化アプローチを採用し、精度を向上させています。
📦 インストール
このモデルを使用するには、transformers
ライブラリが必要です。以下のコマンドでインストールできます。
pip install transformers
💻 使用例
基本的な使用法
上記のクイックスタートのコードが基本的な使用例です。
高度な使用法
以下のコマンドを使って、vLLMを用いてMi:dm 2.0をOpenAI互換APIでサーブすることができます。
vllm serve K-intelligence/Midm-2.0-Base-Instruct
📚 ドキュメント
モデル生成詳細
このモデルは、llama.cppを使って、コミット21c02174
で生成されました。
量子化の改善
標準のIMatrix量子化は、低ビット深度では性能が低下する傾向があります。この問題を解決するために、llama.cpp
の--tensor-type
オプションを使って、重要なレイヤーの精度を手動で上げています。
👉 Layer bumping with llama.cpp
評価
韓国語評価
モデル |
社会文化平均 |
一般知識平均 |
指示従順平均 |
理解平均 |
推論平均 |
Qwen3-4B |
45.7 |
46.5 |
69.4 |
66.6 |
43.8 |
Exaone-3.5-2.4B-inst |
59.2 |
43.0 |
68.9 |
62.5 |
36.7 |
Mi:dm 2.0-Mini-inst |
58.8 |
43.8 |
73.6 |
61.9 |
37.4 |
Qwen3-14B |
64.1 |
55.1 |
77.3 |
76.8 |
48.8 |
Llama-3.1-8B-inst |
40.7 |
34.8 |
58.5 |
51.5 |
19.8 |
Exaone-3.5-7.8B-inst |
65.2 |
49.1 |
74.4 |
67.2 |
39.5 |
Mi:dm 2.0-Base-inst |
78.4 |
57.7 |
85.9 |
76.1 |
44.8 |
英語評価
モデル |
指示従順 |
推論平均 |
数学 |
コーディング |
一般知識平均 |
Qwen3-4B |
79.7 |
59.1 |
90.4 |
62.4 |
73.3 |
Exaone-3.5-2.4B-inst |
81.1 |
41.4 |
82.5 |
59.8 |
59.5 |
Mi:dm 2.0-Mini-inst |
73.6 |
40.9 |
83.1 |
60.9 |
56.5 |
Qwen3-14B |
83.9 |
63.6 |
88.0 |
73.4 |
76.6 |
Llama-3.1-8B-inst |
79.9 |
44.1 |
81.2 |
81.8 |
59.2 |
Exaone-3.5-7.8B-inst |
83.6 |
44.8 |
81.1 |
79.4 |
54.8 |
Mi:dm 2.0-Base-inst |
84.0 |
54.4 |
91.6 |
77.5 |
63.5 |
使用方法
Friendli.AIでの実行
Friendli.AI
を使って、すぐにこのモデルを試すことができます。Deploy
をクリックしてからFriendli Endpoints
をクリックしてください。
⚠️ 重要提示
5回目のチャットインタラクション以降は、Friendli.AI
にログインする必要があります。
ローカルマシンでの実行
llama.cpp、LM Studio、Ollamaを使ってMi:dm 2.0をローカルマシンで実行する詳細な説明を提供しています。詳細はgithubを確認してください。
デプロイメント
vLLM(>=0.8.0
)を使って、OpenAI互換APIでMi:dm 2.0をサーブするには、以下のコマンドを実行します。
vllm serve K-intelligence/Midm-2.0-Base-Instruct
チュートリアル
Mi:dm 2.0を簡単に使えるようにするための包括的なチュートリアルをgithubに用意しています。
🔧 技術詳細
このモデルは、transformers
ライブラリを使って開発されています。量子化の改善には、llama.cpp
の--tensor-type
オプションを使っています。
📄 ライセンス
Mi:dm 2.0は、MITライセンスの下で提供されています。
その他の情報
制限事項
- 両方のMi:dm 2.0モデルの学習データは主に英語と韓国語で構成されているため、他の言語の理解や生成は保証されていません。
- このモデルは、法律、医学、金融などの専門知識を必要とする分野での信頼できるアドバイスを提供することは保証されていません。
- 研究者は、学習データから不道徳な内容(暴言、侮辱、偏見、差別的な言語など)を排除する努力をしていますが、それでも不適切な表現や事実誤りを生成する可能性があります。
お問い合わせ
Mi:dm 2.0の技術的な問い合わせは、midm-llm@kt.comまでお送りください。