🚀 Mi:dm 2.0
Mi:dm 2.0は、韓国を中心としたAIモデルで、KTが独自技術を用いて開発しました。このモデルは、韓国社会独自の価値観、認知枠組み、常識推論を深く内包しており、韓国語の内容を処理および生成するだけでなく、韓国社会の文化規範や価値観に対する深い理解を体現しています。
🍀 Mi:dm 2.0モデル |
📄 Mi:dm 2.0技術報告 |
📝 Mi:dm 2.0技術ブログ*
*近日公開予定
🚀 クイックスタート
コード実行例
以下は、このモデルを使用した対話推論のコードスニペットです。
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfig
model_name = "K-intelligence/Midm-2.0-Mini-Instruct"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.bfloat16,
trust_remote_code=True,
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
generation_config = GenerationConfig.from_pretrained(model_name)
prompt = "KT에 대해 소개해줘"
messages = [
{"role": "system",
"content": "Mi:dm(믿:음)은 KT에서 개발한 AI 기반 어시스턴트이다."},
{"role": "user", "content": prompt}
]
input_ids = tokenizer.apply_chat_template(
messages,
tokenize=True,
add_generation_prompt=True,
return_tensors="pt"
)
output = model.generate(
input_ids.to("cuda"),
generation_config=generation_config,
eos_token_id=tokenizer.eos_token_id,
max_new_tokens=128,
do_sample=False,
)
print(tokenizer.decode(output[0]))
⚠️ 重要な注意事項
transformers
ライブラリのバージョンは4.45.0
以上である必要があります。
✨ 主な機能
- 複数バージョンの提供:Mi:dm 2.0 BaseとMi:dm 2.0 Miniの2つのバージョンを提供し、それぞれ異なるシナリオに適しています。
- 韓国中心の設計:韓国社会文化を深く理解し、韓国語関連のタスクをより適切に処理できます。
- 多プラットフォーム対応:Friendli.AIやローカルマシンなど、様々なプラットフォームで動作します。
📦 インストール
vLLMを使用したデプロイ
vLLM(>=0.8.0
)を使用して、OpenAI互換のAPIでMi:dm 2.0をサービスする場合は、以下のコマンドを実行できます。
vllm serve K-intelligence/Midm-2.0-Mini-Instruct
💻 使用例
Friendli.AIでの実行
Friendli.AI
を通じて、すぐにこのモデルを試すことができます。Deploy
をクリックし、次にFriendli Endpoints
をクリックするだけです。
⚠️ 重要な注意事項
5回目のチャットインタラクション以降は、Friendli.AI
にログインする必要があります。
ローカルマシンでの実行
llama.cpp、LM Studio、Ollamaを使用して、ローカルマシンでMi:dm 2.0を実行する詳細な手順を提供しています。詳細は、GitHubを参照してください。
チュートリアル
エンドユーザーがMi:dm 2.0を簡単に使用できるように、GitHubで包括的なチュートリアルを提供しています。
📚 ドキュメント
評価
韓国語評価
モデル |
社会と文化 - K-Refer* |
社会と文化 - K-Refer-Hard* |
社会と文化 - Ko-Sovereign* |
社会と文化 - HAERAE |
社会と文化 - 平均 |
常識 - KMMLU |
常識 - Ko-Sovereign* |
常識 - 平均 |
指令遵守 - Ko-IFEval |
指令遵守 - Ko-MTBench |
指令遵守 - 平均 |
Qwen3 - 4B |
53.6 |
42.9 |
35.8 |
50.6 |
45.7 |
50.6 |
42.5 |
46.5 |
75.9 |
63.0 |
69.4 |
Exaone - 3.5 - 2.4B - inst |
64.0 |
67.1 |
44.4 |
61.3 |
59.2 |
43.5 |
42.4 |
43.0 |
65.4 |
74.0 |
68.9 |
Mi:dm 2.0 - Mini - inst |
66.4 |
61.4 |
36.7 |
70.8 |
58.8 |
45.1 |
42.4 |
43.8 |
73.3 |
74.0 |
73.6 |
Qwen3 - 14B |
72.4 |
65.7 |
49.8 |
68.4 |
64.1 |
55.4 |
54.7 |
55.1 |
83.6 |
71 |
77.3 |
Llama - 3.1 - 8B - inst |
43.2 |
36.4 |
33.8 |
49.5 |
40.7 |
33.0 |
36.7 |
34.8 |
60.1 |
57 |
58.5 |
Exaone - 3.5 - 7.8B - inst |
71.6 |
69.3 |
46.9 |
72.9 |
65.2 |
52.6 |
45.6 |
49.1 |
69.1 |
79.6 |
74.4 |
Mi:dm 2.0 - Base - inst |
89.6 |
86.4 |
56.3 |
81.5 |
78.4 |
57.3 |
58.0 |
57.7 |
82 |
89.7 |
85.9 |
モデル |
理解 - K - Prag* |
理解 - K - Refer - Hard* |
理解 - Ko - Best |
理解 - Ko - Sovereign* |
理解 - 平均 |
推論 - Ko - Winogrande |
推論 - Ko - Best |
推論 - LogicKor |
推論 - HRM8K |
推論 - 平均 |
Qwen3 - 4B |
73.9 |
56.7 |
91.5 |
43.5 |
66.6 |
67.5 |
69.2 |
5.6 |
56.7 |
43.8 |
Exaone - 3.5 - 2.4B - inst |
68.7 |
58.5 |
87.2 |
38.0 |
62.5 |
60.3 |
64.1 |
7.4 |
38.5 |
36.7 |
Mi:dm 2.0 - Mini - inst |
69.5 |
55.4 |
80.5 |
42.5 |
61.9 |
61.7 |
64.5 |
7.7 |
39.9 |
37.4 |
Qwen3 - 14B |
86.7 |
74.0 |
93.9 |
52.0 |
76.8 |
77.2 |
75.4 |
6.4 |
64.5 |
48.8 |
Llama - 3.1 - 8B - inst |
59.9 |
48.6 |
77.4 |
31.5 |
51.5 |
40.1 |
26.0 |
2.4 |
30.9 |
19.8 |
Exaone - 3.5 - 7.8B - inst |
73.5 |
61.9 |
92.0 |
44.0 |
67.2 |
64.6 |
60.3 |
8.6 |
49.7 |
39.5 |
Mi:dm 2.0 - Base - inst |
86.5 |
70.8 |
95.2 |
53.0 |
76.1 |
75.1 |
73.0 |
8.6 |
52.9 |
44.8 |
*
はKT独自の評価リソースを示します。
英語評価
モデル |
指令 - IFEval |
推論 - BBH |
推論 - GPQA |
推論 - MuSR |
推論 - 平均 |
数学 - GSM8K |
コーディング - MBPP+ |
常識 - MMLU - pro |
常識 - MMLU |
常識 - 平均 |
Qwen3 - 4B |
79.7 |
79.0 |
39.8 |
58.5 |
59.1 |
90.4 |
62.4 |
- |
73.3 |
73.3 |
Exaone - 3.5 - 2.4B - inst |
81.1 |
46.4 |
28.1 |
49.7 |
41.4 |
82.5 |
59.8 |
- |
59.5 |
59.5 |
Mi:dm 2.0 - Mini - inst |
73.6 |
44.5 |
26.6 |
51.7 |
40.9 |
83.1 |
60.9 |
- |
56.5 |
56.5 |
Qwen3 - 14B |
83.9 |
83.4 |
49.8 |
57.7 |
63.6 |
88.0 |
73.4 |
70.5 |
82.7 |
76.6 |
Llama - 3.1 - 8B - inst |
79.9 |
60.3 |
21.6 |
50.3 |
44.1 |
81.2 |
81.8 |
47.6 |
70.7 |
59.2 |
Exaone - 3.5 - 7.8B - inst |
83.6 |
50.1 |
33.1 |
51.2 |
44.8 |
81.1 |
79.4 |
40.7 |
69.0 |
54.8 |
Mi:dm 2.0 - Base - inst |
84.0 |
77.7 |
33.5 |
51.9 |
54.4 |
91.6 |
77.5 |
53.3 |
73.7 |
63.5 |
🔧 技術詳細
Mi:dm 2.0は2つのバージョンがリリースされています。
- Mi:dm 2.0 Base:115億のパラメータを持つ密集モデルで、モデルサイズと性能のバランスを図ることを目的としています。深度拡張(DuS)方法を適用して80億規模のモデルを拡張したもので、性能と汎用性の両方が必要な実際のアプリケーションに適しています。
- Mi:dm 2.0 Mini:軽量な23億パラメータの密集モデルで、デバイス端環境やGPUリソースが限られたシステム向けに最適化されています。基礎モデルの剪定と蒸留によって得られたもので、コンパクトなデプロイを実現します。
📄 ライセンス
Mi:dm 2.0はMITライセンスを採用しています。
連絡先
Mi:dm 2.0の技術相談:midm - llm@kt.com
制限事項
- 2つのMi:dm 2.0モデルの学習データは主に英語と韓国語で構成されており、他の言語の理解と生成能力は保証されていません。
- このモデルは、専門知識を必要とする分野(法律、医学、金融など)で信頼できるアドバイスを提供することは保証されていません。
- 研究者は、学習データから不道徳な内容(汚言穢語、中傷的な言葉、偏見や差別的な言葉など)を排除するために努力しています。しかし、これらの努力にもかかわらず、モデルが不適切な表現や事実誤りを生成する可能性があります。