🚀 Mi:dm 2.0
Mi:dm 2.0 是採用 KT 專有技術開發的“以韓國為中心的 AI”模型。該模型深度內化了韓國社會獨特的價值觀、認知框架和常識推理,不僅僅是處理或生成韓語,更體現了對韓國社會社會文化規範和價值觀的深刻理解。
🌟 Mi:dm 2.0 模型 |
📄 Mi:dm 2.0 技術報告 |
📝 Mi:dm 2.0 技術博客*
*即將發佈
🚀 快速開始
新聞動態
- ⏱️ (即將推出!)GGUF 格式的模型文件即將推出,以便更輕鬆地進行本地部署。
- 📅
2025/07/04
:在 Hugging Face 上發佈了 Mi:dm 2.0 模型集合。
目錄
Mi:dm 2.0 簡介
Mi:dm 2.0 有兩個版本發佈:
- Mi:dm 2.0 Base:一個具有 115 億參數的密集模型,旨在平衡模型大小和性能。它通過應用深度擴展(DuS)方法擴展了 80 億規模的模型,適用於需要高性能和多功能的實際應用場景。
- Mi:dm 2.0 Mini:一個輕量級的 23 億參數密集模型,針對設備端環境和 GPU 資源有限的系統進行了優化。它是通過對基礎模型進行剪枝和蒸餾得到的,能夠實現緊湊部署。
⚠️ 重要提示
預訓練和後訓練數據均不包含 KT 用戶數據。
快速入門代碼示例
以下是使用該模型進行對話推理的代碼片段:
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfig
model_name = "K-intelligence/Midm-2.0-Base-Instruct"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.bfloat16,
trust_remote_code=True,
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
generation_config = GenerationConfig.from_pretrained(model_name)
prompt = "KT에 대해 소개해줘"
messages = [
{"role": "system",
"content": "Mi:dm(믿:음)은 KT에서 개발한 AI 기반 어시스턴트이다."},
{"role": "user", "content": prompt}
]
input_ids = tokenizer.apply_chat_template(
messages,
tokenize=True,
add_generation_prompt=True,
return_tensors="pt"
)
output = model.generate(
input_ids.to("cuda"),
generation_config=generation_config,
eos_token_id=tokenizer.eos_token_id,
max_new_tokens=128,
do_sample=False,
)
print(tokenizer.decode(output[0]))
⚠️ 重要提示
transformers
庫的版本應在 4.45.0
或更高。
📊 評估
韓語評估
模型 |
社會與文化 - K-Refer* |
社會與文化 - K-Refer-Hard* |
社會與文化 - Ko-Sovereign* |
社會與文化 - HAERAE |
社會與文化 - 平均 |
常識知識 - KMMLU |
常識知識 - Ko-Sovereign* |
常識知識 - 平均 |
指令遵循 - Ko-IFEval |
指令遵循 - Ko-MTBench |
指令遵循 - 平均 |
Qwen3-4B |
53.6 |
42.9 |
35.8 |
50.6 |
45.7 |
50.6 |
42.5 |
46.5 |
75.9 |
63.0 |
69.4 |
Exaone-3.5-2.4B-inst |
64.0 |
67.1 |
44.4 |
61.3 |
59.2 |
43.5 |
42.4 |
43.0 |
65.4 |
74.0 |
68.9 |
Mi:dm 2.0-Mini-inst |
66.4 |
61.4 |
36.7 |
70.8 |
58.8 |
45.1 |
42.4 |
43.8 |
73.3 |
74.0 |
73.6 |
Qwen3-14B |
72.4 |
65.7 |
49.8 |
68.4 |
64.1 |
55.4 |
54.7 |
55.1 |
83.6 |
71 |
77.3 |
Llama-3.1-8B-inst |
43.2 |
36.4 |
33.8 |
49.5 |
40.7 |
33.0 |
36.7 |
34.8 |
60.1 |
57 |
58.5 |
Exaone-3.5-7.8B-inst |
71.6 |
69.3 |
46.9 |
72.9 |
65.2 |
52.6 |
45.6 |
49.1 |
69.1 |
79.6 |
74.4 |
Mi:dm 2.0-Base-inst |
89.6 |
86.4 |
56.3 |
81.5 |
78.4 |
57.3 |
58.0 |
57.7 |
82 |
89.7 |
85.9 |
模型 |
理解 - K-Prag* |
理解 - K-Refer-Hard* |
理解 - Ko-Best |
理解 - Ko-Sovereign* |
理解 - 平均 |
推理 - Ko-Winogrande |
推理 - Ko-Best |
推理 - LogicKor |
推理 - HRM8K |
推理 - 平均 |
Qwen3-4B |
73.9 |
56.7 |
91.5 |
43.5 |
66.6 |
67.5 |
69.2 |
5.6 |
56.7 |
43.8 |
Exaone-3.5-2.4B-inst |
68.7 |
58.5 |
87.2 |
38.0 |
62.5 |
60.3 |
64.1 |
7.4 |
38.5 |
36.7 |
Mi:dm 2.0-Mini-inst |
69.5 |
55.4 |
80.5 |
42.5 |
61.9 |
61.7 |
64.5 |
7.7 |
39.9 |
37.4 |
Qwen3-14B |
86.7 |
74.0 |
93.9 |
52.0 |
76.8 |
77.2 |
75.4 |
6.4 |
64.5 |
48.8 |
Llama-3.1-8B-inst |
59.9 |
48.6 |
77.4 |
31.5 |
51.5 |
40.1 |
26.0 |
2.4 |
30.9 |
19.8 |
Exaone-3.5-7.8B-inst |
73.5 |
61.9 |
92.0 |
44.0 |
67.2 |
64.6 |
60.3 |
8.6 |
49.7 |
39.5 |
Mi:dm 2.0-Base-inst |
86.5 |
70.8 |
95.2 |
53.0 |
76.1 |
75.1 |
73.0 |
8.6 |
52.9 |
44.8 |
*
表示 KT 專有評估資源。
英語評估
模型 |
指令 - IFEval |
推理 - BBH |
推理 - GPQA |
推理 - MuSR |
推理 - 平均 |
數學 - GSM8K |
編碼 - MBPP+ |
常識知識 - MMLU-pro |
常識知識 - MMLU |
常識知識 - 平均 |
Qwen3-4B |
79.7 |
79.0 |
39.8 |
58.5 |
59.1 |
90.4 |
62.4 |
- |
73.3 |
73.3 |
Exaone-3.5-2.4B-inst |
81.1 |
46.4 |
28.1 |
49.7 |
41.4 |
82.5 |
59.8 |
- |
59.5 |
59.5 |
Mi:dm 2.0-Mini-inst |
73.6 |
44.5 |
26.6 |
51.7 |
40.9 |
83.1 |
60.9 |
- |
56.5 |
56.5 |
Qwen3-14B |
83.9 |
83.4 |
49.8 |
57.7 |
63.6 |
88.0 |
73.4 |
70.5 |
82.7 |
76.6 |
Llama-3.1-8B-inst |
79.9 |
60.3 |
21.6 |
50.3 |
44.1 |
81.2 |
81.8 |
47.6 |
70.7 |
59.2 |
Exaone-3.5-7.8B-inst |
83.6 |
50.1 |
33.1 |
51.2 |
44.8 |
81.1 |
79.4 |
40.7 |
69.0 |
54.8 |
Mi:dm 2.0-Base-inst |
84.0 |
77.7 |
33.5 |
51.9 |
54.4 |
91.6 |
77.5 |
53.3 |
73.7 |
63.5 |
💻 使用示例
在 Friendli.AI 上運行
你可以通過 Friendli.AI
立即試用我們的模型。只需點擊 Deploy
然後點擊 Friendli Endpoints
。
⚠️ 重要提示
請注意,在進行第五次聊天交互後,需要登錄 Friendli.AI
。
在本地機器上運行
我們提供了使用 llama.cpp、LM Studio 和 Ollama 在本地機器上運行 Mi:dm 2.0 的詳細說明。更多信息請查看我們的 GitHub。
部署
要使用 vLLM(>=0.8.0
) 以 OpenAI 兼容的 API 服務 Mi:dm 2.0,請運行以下命令:
vllm serve K-intelligence/Midm-2.0-Base-Instruct
教程
為了幫助最終用戶輕鬆使用 Mi:dm 2.0,我們在 GitHub 上提供了全面的教程。
📚 詳細文檔
侷限性
- 兩個 Mi:dm 2.0 模型的訓練數據主要由英語和韓語組成,不保證對其他語言的理解和生成能力。
- 該模型不能保證在需要專業知識的領域(如法律、醫學或金融)提供可靠的建議。
- 研究人員已努力從訓練數據中排除不道德的內容,如髒話、詆譭性語言、偏見和歧視性語言。然而,儘管做出了這些努力,模型仍可能產生不適當的表達或事實性錯誤。
許可證
Mi:dm 2.0 採用 MIT 許可證。
聯繫我們
Mi:dm 2.0 技術諮詢:midm-llm@kt.com