🚀 Midm-2.0-Base-Instruct GGUF模型
Midm-2.0-Base-Instruct GGUF模型是用於文本生成的模型,基於transformers庫,在多方面具有出色表現,能為用戶提供高效的文本生成服務。
🚀 快速開始
以下是使用該模型進行對話推理的代碼片段:
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfig
model_name = "K-intelligence/Midm-2.0-Base-Instruct"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.bfloat16,
trust_remote_code=True,
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
generation_config = GenerationConfig.from_pretrained(model_name)
prompt = "KT에 대해 소개해줘"
messages = [
{"role": "system",
"content": "Mi:dm(믿:음)은 KT에서 개발한 AI 기반 어시스턴트이다."},
{"role": "user", "content": prompt}
]
input_ids = tokenizer.apply_chat_template(
messages,
tokenize=True,
add_generation_prompt=True,
return_tensors="pt"
)
output = model.generate(
input_ids.to("cuda"),
generation_config=generation_config,
eos_token_id=tokenizer.eos_token_id,
max_new_tokens=128,
do_sample=False,
)
print(tokenizer.decode(output[0]))
⚠️ 重要提示
transformers
庫的版本應在4.45.0
或更高。
✨ 主要特性
- 韓國中心AI模型:Mi:dm 2.0是使用KT專有技術開發的“以韓國為中心的AI”模型,深入內化了韓國社會獨特的價值觀、認知框架和常識推理,能更好地理解和反映韓國社會的社會文化規範和價值觀。
- 多版本發佈:提供Mi:dm 2.0 Base和Mi:dm 2.0 Mini兩個版本,分別適用於不同的應用場景,滿足多樣化的需求。
- 量化優化:採用新的量化方法,選擇性地提高關鍵層的精度,在一定程度上改善了模型在低比特深度下的性能。
📦 安裝指南
本地運行
我們提供了使用llama.cpp、LM Studio和Ollama在本地運行Mi:dm 2.0的詳細說明。更多信息請查看我們的 GitHub。
部署
使用 vLLM (>=0.8.0
) 以OpenAI兼容的API來服務Mi:dm 2.0:
vllm serve K-intelligence/Midm-2.0-Base-Instruct
💻 使用示例
在Friendli.AI上運行
你可以通過Friendli.AI
立即試用我們的模型。只需點擊Deploy
,然後點擊Friendli Endpoints
。
⚠️ 重要提示
請注意,在進行第五次聊天交互後,需要登錄Friendli.AI
。
在本地機器上運行
我們提供了使用llama.cpp、LM Studio和Ollama在本地機器上運行Mi:dm 2.0的詳細說明。更多信息請查看我們的 GitHub。
📚 詳細文檔
模型生成細節
該模型使用 llama.cpp 在提交版本 21c02174
時生成。
量化超越IMatrix
我一直在試驗一種新的量化方法,該方法選擇性地提高關鍵層的精度,超越了默認IMatrix配置提供的精度。在我的測試中,標準IMatrix量化在低比特深度下表現不佳,尤其是對於專家混合(MoE)模型。為了解決這個問題,我使用llama.cpp
中的--tensor-type
選項手動將重要層的精度提高。你可以在以下鏈接查看實現:
👉 使用llama.cpp進行層提升
雖然這確實會增加模型文件的大小,但它顯著提高了給定量化級別的精度。
評估
韓語評估
模型 |
社會與文化 - K-Refer* |
社會與文化 - K-Refer-Hard* |
社會與文化 - Ko-Sovereign* |
社會與文化 - HAERAE |
社會與文化 - 平均 |
常識 - KMMLU |
常識 - Ko-Sovereign* |
常識 - 平均 |
指令遵循 - Ko-IFEval |
指令遵循 - Ko-MTBench |
指令遵循 - 平均 |
Qwen3-4B |
53.6 |
42.9 |
35.8 |
50.6 |
45.7 |
50.6 |
42.5 |
46.5 |
75.9 |
63.0 |
69.4 |
Exaone-3.5-2.4B-inst |
64.0 |
67.1 |
44.4 |
61.3 |
59.2 |
43.5 |
42.4 |
43.0 |
65.4 |
74.0 |
68.9 |
Mi:dm 2.0-Mini-inst |
66.4 |
61.4 |
36.7 |
70.8 |
58.8 |
45.1 |
42.4 |
43.8 |
73.3 |
74.0 |
73.6 |
Qwen3-14B |
72.4 |
65.7 |
49.8 |
68.4 |
64.1 |
55.4 |
54.7 |
55.1 |
83.6 |
71 |
77.3 |
Llama-3.1-8B-inst |
43.2 |
36.4 |
33.8 |
49.5 |
40.7 |
33.0 |
36.7 |
34.8 |
60.1 |
57 |
58.5 |
Exaone-3.5-7.8B-inst |
71.6 |
69.3 |
46.9 |
72.9 |
65.2 |
52.6 |
45.6 |
49.1 |
69.1 |
79.6 |
74.4 |
Mi:dm 2.0-Base-inst |
89.6 |
86.4 |
56.3 |
81.5 |
78.4 |
57.3 |
58.0 |
57.7 |
82 |
89.7 |
85.9 |
模型 |
理解 - K-Prag* |
理解 - K-Refer-Hard* |
理解 - Ko-Best |
理解 - Ko-Sovereign* |
理解 - 平均 |
推理 - Ko-Winogrande |
推理 - Ko-Best |
推理 - LogicKor |
推理 - HRM8K |
推理 - 平均 |
Qwen3-4B |
73.9 |
56.7 |
91.5 |
43.5 |
66.6 |
67.5 |
69.2 |
5.6 |
56.7 |
43.8 |
Exaone-3.5-2.4B-inst |
68.7 |
58.5 |
87.2 |
38.0 |
62.5 |
60.3 |
64.1 |
7.4 |
38.5 |
36.7 |
Mi:dm 2.0-Mini-inst |
69.5 |
55.4 |
80.5 |
42.5 |
61.9 |
61.7 |
64.5 |
7.7 |
39.9 |
37.4 |
Qwen3-14B |
86.7 |
74.0 |
93.9 |
52.0 |
76.8 |
77.2 |
75.4 |
6.4 |
64.5 |
48.8 |
Llama-3.1-8B-inst |
59.9 |
48.6 |
77.4 |
31.5 |
51.5 |
40.1 |
26.0 |
2.4 |
30.9 |
19.8 |
Exaone-3.5-7.8B-inst |
73.5 |
61.9 |
92.0 |
44.0 |
67.2 |
64.6 |
60.3 |
8.6 |
49.7 |
39.5 |
Mi:dm 2.0-Base-inst |
86.5 |
70.8 |
95.2 |
53.0 |
76.1 |
75.1 |
73.0 |
8.6 |
52.9 |
44.8 |
*
表示KT專有的評估資源。
英語評估
模型 |
指令 - IFEval |
推理 - BBH |
推理 - GPQA |
推理 - MuSR |
推理 - 平均 |
數學 - GSM8K |
編碼 - MBPP+ |
常識 - MMLU-pro |
常識 - MMLU |
常識 - 平均 |
Qwen3-4B |
79.7 |
79.0 |
39.8 |
58.5 |
59.1 |
90.4 |
62.4 |
- |
73.3 |
73.3 |
Exaone-3.5-2.4B-inst |
81.1 |
46.4 |
28.1 |
49.7 |
41.4 |
82.5 |
59.8 |
- |
59.5 |
59.5 |
Mi:dm 2.0-Mini-inst |
73.6 |
44.5 |
26.6 |
51.7 |
40.9 |
83.1 |
60.9 |
- |
56.5 |
56.5 |
Qwen3-14B |
83.9 |
83.4 |
49.8 |
57.7 |
63.6 |
88.0 |
73.4 |
70.5 |
82.7 |
76.6 |
Llama-3.1-8B-inst |
79.9 |
60.3 |
21.6 |
50.3 |
44.1 |
81.2 |
81.8 |
47.6 |
70.7 |
59.2 |
Exaone-3.5-7.8B-inst |
83.6 |
50.1 |
33.1 |
51.2 |
44.8 |
81.1 |
79.4 |
40.7 |
69.0 |
54.8 |
Mi:dm 2.0-Base-inst |
84.0 |
77.7 |
33.5 |
51.9 |
54.4 |
91.6 |
77.5 |
53.3 |
73.7 |
63.5 |
教程
為了幫助我們的最終用戶輕鬆使用Mi:dm 2.0,我們在 GitHub 上提供了全面的教程。
🔧 技術細節
量化方法
使用新的量化方法,通過llama.cpp
中的--tensor-type
選項手動提高關鍵層的精度,以改善模型在低比特深度下的性能。
模型版本
- Mi:dm 2.0 Base:一個115億參數的密集模型,旨在平衡模型大小和性能。它通過應用深度擴展(DuS)方法擴展了一個80億規模的模型,適用於需要性能和通用性的實際應用。
- Mi:dm 2.0 Mini:一個輕量級的23億參數密集模型,針對設備端環境和GPU資源有限的系統進行了優化。它通過剪枝和蒸餾從基礎模型派生而來,以實現緊湊的部署。
📄 許可證
Mi:dm 2.0根據 MIT許可證 授權。
聯繫信息
Mi:dm 2.0技術諮詢:midm-llm@kt.com
限制
- 語言限制:兩個Mi:dm 2.0模型的訓練數據主要由英語和韓語組成,不保證對其他語言的理解和生成能力。
- 專業領域限制:該模型不保證在需要專業知識的領域(如法律、醫學或金融)提供可靠的建議。
- 內容準確性:儘管研究人員努力從訓練數據中排除不道德的內容,但模型仍可能產生不適當的表達或事實不準確的內容。
🚀 如果你覺得這些模型有用
幫助我測試我的 AI驅動的量子網絡監控助手 進行 量子就緒安全檢查:
👉 量子網絡監控
量子網絡監控服務的完整開源代碼可在我的GitHub倉庫(名稱中包含NetworkMonitor的倉庫)中找到:量子網絡監控源代碼。如果你想自己進行量化,還可以找到我用於量化模型的代碼 GGUFModelBuilder。
💬 如何測試:
選擇一個 AI助手類型:
TurboLLM
(GPT-4.1-mini)
HugLLM
(Hugginface開源模型)
TestLLM
(僅實驗性CPU)
我正在測試的內容
我正在挑戰小型開源模型在AI網絡監控方面的極限,具體包括:
- 針對即時網絡服務的 函數調用
- 模型可以多小 同時仍能處理:
- 自動 Nmap安全掃描
- 量子就緒檢查
- 網絡監控任務
🟡 TestLLM – 當前的實驗模型(在Hugging Face Docker空間的2個CPU線程上運行llama.cpp):
- ✅ 零配置設置
- ⏳ 30秒加載時間(推理速度慢,但 無API成本)。由於成本低,沒有令牌限制。
- 🔧 尋求幫助! 如果你對 邊緣設備AI 感興趣,讓我們合作。