Kimi VL A3B Thinking 2506
模型简介
这是一个多模态视觉语言模型,专注于图像文本转文本任务,具有强大的视觉理解和推理能力。
模型特点
更智能思考,更少令牌消耗
在多模态推理基准测试中达到更好的准确率,同时平均所需思考长度减少20%
视觉感知与理解能力提升
在一般视觉感知和理解方面达到相同甚至更好的能力,超越或匹配非思考模型的能力
视频场景处理能力
在视频推理和理解基准测试中有所改进,为开源模型设定了新的技术水平
高分辨率支持
支持单张图像320万总像素,是前一版本的4倍,在高分辨率感知和OS代理接地基准测试中带来显著改进
模型能力
多模态推理
视觉感知
图像理解
视频理解
高分辨率图像处理
长文本处理
数学推理
文档处理
使用案例
视觉问答
图像内容识别
识别图像中的物体或场景
如准确识别猫的品种
视频理解
视频内容分析
理解视频中的场景和动作
在VideoMMMU基准测试中达到65.2的准确率
数学推理
视觉数学问题解答
解决包含视觉元素的数学问题
在MathVista_MINI基准测试中达到80.1的准确率
🚀 Kimi-VL-A3B-Thinking-2506
Kimi-VL-A3B-Thinking-2506 是 Kimi-VL-A3B-Thinking 的升级版,在多模态推理、视觉感知与理解、视频场景处理等方面有显著提升,同时支持更高分辨率图像,且能在消耗更少令牌的情况下实现更智能的思考。
基础信息
属性 | 详情 |
---|---|
基础模型 | moonshotai/Kimi-VL-A3B-Instruct |
许可证 | MIT |
任务类型 | 图像文本转文本 |
库名称 | transformers |
⚠️ 重要提示
这是 Kimi-VL-A3B-Thinking 的改进版本,请考虑使用此更新后的模型,而非之前的版本。
💡 使用建议
请访问我们的技术博客,获取此模型的推荐推理方案:Kimi-VL-A3B-Thinking-2506: A Quick Navigation

✨ 主要特性
这是 Kimi-VL-A3B-Thinking 的更新版本,具有以下改进能力:
- 更智能思考,更少令牌消耗:2506 版本在多模态推理基准测试中达到了更好的准确率,如 MathVision 达到 56.9(提升 20.1)、MathVista 达到 80.1(提升 8.4)、MMMU-Pro 达到 46.3(提升 3.3)、MMMU 达到 64.0(提升 2.1),同时平均所需思考长度减少 20%。
- 思考助力,视觉更清晰:与专注于思考任务的前一版本不同,2506 版本在一般视觉感知和理解方面也能达到相同甚至更好的能力,如 MMBench-EN-v1.1(84.4)、MMStar(70.4)、RealWorldQA(70.0)、MMVet(78.4),超越或匹配了我们非思考模型(Kimi-VL-A3B-Instruct)的能力。
- 拓展至视频场景:新的 2506 版本在视频推理和理解基准测试中也有所改进。它在 VideoMMMU 上为开源模型设定了新的技术水平(65.2),同时在一般视频理解方面也保留了良好的能力(Video-MME 达到 71.9,与 Kimi-VL-A3B-Instruct 相当)。
- 支持更高分辨率:新的 2506 版本支持单张图像 320 万总像素,是前一版本的 4 倍。这在高分辨率感知和 OS 代理接地基准测试中带来了显著改进,如 V* Benchmark(无额外工具)达到 83.2、ScreenSpot-Pro 达到 52.8、OSWorld-G(完整集,含拒绝)达到 52.5。
📈 性能表现
与高效模型及 Kimi-VL 前两个版本的比较
基准测试(指标) | GPT-4o | Qwen2.5-VL-7B | Gemma3-12B-IT | Kimi-VL-A3B-Instruct | Kimi-VL-A3B-Thinking | Kimi-VL-A3B-Thinking-2506 |
---|---|---|---|---|---|---|
通用多模态 | ||||||
MMBench-EN-v1.1(准确率) | 83.1 | 83.2 | 74.6 | 82.9 | 76.0 | 84.4 |
RealWorldQA(准确率) | 75.4 | 68.5 | 59.1 | 68.1 | 64.0 | 70.0 |
OCRBench(准确率) | 815 | 864 | 702 | 864 | 864 | 869 |
MMStar(准确率) | 64.7 | 63.0 | 56.1 | 61.7 | 64.2 | 70.4 |
MMVet(准确率) | 69.1 | 67.1 | 64.9 | 66.7 | 69.5 | 78.1 |
推理能力 | ||||||
MMMU(验证集,Pass@1) | 69.1 | 58.6 | 59.6 | 57.0 | 61.7 | 64.0 |
MMMU-Pro(Pass@1) | 51.7 | 38.1 | 32.1 | 36.0 | 43.2 | 46.3 |
数学能力 | ||||||
MATH-Vision(Pass@1) | 30.4 | 25.0 | 32.1 | 21.7 | 36.8 | 56.9 |
MathVista_MINI(Pass@1) | 63.8 | 68.0 | 56.1 | 68.6 | 71.7 | 80.1 |
视频能力 | ||||||
VideoMMMU(Pass@1) | 61.2 | 47.4 | 57.0 | 52.1 | 55.5 | 65.2 |
MMVU(Pass@1) | 67.4 | 50.1 | 57.0 | 52.7 | 53.0 | 57.5 |
Video-MME(含字幕) | 77.2 | 71.6 | 62.1 | 72.7 | 66.0 | 71.9 |
代理接地能力 | ||||||
ScreenSpot-Pro(准确率) | 0.8 | 29.0 | — | 35.4 | — | 52.8 |
ScreenSpot-V2(准确率) | 18.1 | 84.2 | — | 92.8 | — | 91.4 |
OSWorld-G(准确率) | - | 31.5 | — | 41.6 | — | 52.5 |
长文档处理能力 | ||||||
MMLongBench-DOC(准确率) | 42.8 | 29.6 | 21.3 | 35.1 | 32.5 | 42.1 |
与 30B - 70B 开源模型的比较
基准测试(指标) | Kimi-VL-A3B-Thinking-2506 | Qwen2.5-VL-32B | Qwen2.5-VL-72B | Gemma3-27B-IT |
---|---|---|---|---|
通用多模态 | ||||
MMBench-EN-v1.1(准确率) | 84.4 | - | 88.3 | 78.9 |
RealWorldQA(准确率) | 70.0 | - | 75.7 | 62.5 |
OCRBench(准确率) | 869 | - | 885 | 753 |
MMStar(准确率) | 70.4 | 69.5 | 70.8 | 63.1 |
MMVet(准确率) | 78.1 | - | 74.0 | 71.0 |
推理能力 | ||||
MMMU(验证集,Pass@1) | 64.0 | 70.0 | 70.2 | 64.9 |
MMMU-Pro(Pass@1) | 46.3 | 49.5 | 51.1 | - |
数学能力 | ||||
MATH-Vision(Pass@1) | 56.9 | 38.4 | 38.1 | 35.4 |
MathVista_MINI(Pass@1) | 80.1 | 74.7 | 74.8 | 59.8 |
视频能力 | ||||
VideoMMMU(Pass@1) | 65.2 | - | 60.2 | 61.8 |
MMVU(Pass@1) | 57.5 | - | 62.9 | 61.3 |
Video-MME(含字幕) | 71.9 | 70.5/77.9 | 73.3/79.1 | - |
代理接地能力 | ||||
ScreenSpot-Pro(准确率) | 52.8 | 39.4 | 43.6 | - |
ScreenSpot-V2(准确率) | 91.4 | - | - | - |
OSWorld-G(准确率) | 52.5 | 46.5 | - | - |
长文档处理能力 | ||||
MMLongBench-DOC(准确率) | 42.1 | - | 38.8 | - |
💻 使用示例
基础用法
使用 VLLM 进行推理(推荐)
作为一个长解码模型,最多可生成 32K 令牌,我们推荐使用 VLLM 进行推理,它已经支持 Kimi-VL 系列。
MAX_JOBS=4 pip install vllm==0.9.1 blobfile flash-attn --no-build-isolation
⚠️ 重要提示
务必显式安装 flash-attn 以避免 CUDA 内存不足。
from transformers import AutoProcessor
from vllm import LLM, SamplingParams
model_path = "moonshotai/Kimi-VL-A3B-Thinking-2506"
llm = LLM(
model_path,
trust_remote_code=True,
max_num_seqs=8,
max_model_len=131072,
limit_mm_per_prompt={"image": 256}
)
processor = AutoProcessor.from_pretrained(model_path, trust_remote_code=True)
sampling_params = SamplingParams(max_tokens=32768, temperature=0.8)
import requests
from PIL import Image
def extract_thinking_and_summary(text: str, bot: str = "◁think▷", eot: str = "◁/think▷") -> str:
if bot in text and eot not in text:
return ""
if eot in text:
return text[text.index(bot) + len(bot):text.index(eot)].strip(), text[text.index(eot) + len(eot) :].strip()
return "", text
OUTPUT_FORMAT = "--------Thinking--------\n{thinking}\n\n--------Summary--------\n{summary}"
url = "https://huggingface.co/spaces/moonshotai/Kimi-VL-A3B-Thinking/resolve/main/images/demo6.jpeg"
image = Image.open(requests.get(url,stream=True).raw)
messages = [
{"role": "user", "content": [{"type": "image", "image": ""}, {"type": "text", "text": "What kind of cat is this? Answer with one word."}]}
]
text = processor.apply_chat_template(messages, add_generation_prompt=True, return_tensors="pt")
outputs = llm.generate([{"prompt": text, "multi_modal_data": {"image": image}}], sampling_params=sampling_params)
generated_text = outputs[0].outputs[0].text
thinking, summary = extract_thinking_and_summary(generated_text)
print(OUTPUT_FORMAT.format(thinking=thinking, summary=summary))
使用 🤗 Hugging Face Transformers 进行推理
我们介绍如何使用 transformers 库在推理阶段使用我们的模型。建议使用 python=3.10、torch>=2.1.0 和 transformers=4.48.2 作为开发环境。
from PIL import Image
from transformers import AutoModelForCausalLM, AutoProcessor
def extract_thinking_and_summary(text: str, bot: str = "◁think▷", eot: str = "◁/think▷") -> str:
if bot in text and eot not in text:
return ""
if eot in text:
return text[text.index(bot) + len(bot):text.index(eot)].strip(), text[text.index(eot) + len(eot) :].strip()
return "", text
OUTPUT_FORMAT = "--------Thinking--------\n{thinking}\n\n--------Summary--------\n{summary}"
url = "https://huggingface.co/spaces/moonshotai/Kimi-VL-A3B-Thinking/resolve/main/images/demo6.jpeg"
model_path = "moonshotai/Kimi-VL-A3B-Thinking-2506"
model = AutoModelForCausalLM.from_pretrained(
model_path,
torch_dtype="auto",
device_map="auto",
trust_remote_code=True,
)
processor = AutoProcessor.from_pretrained(model_path, trust_remote_code=True)
image_paths = ["url"]
images = [Image.open(path) for path in image_paths]
messages = [
{
"role": "user",
"content": [
{"type": "image", "image": image_path} for image_path in image_paths
] + [{"type": "text", "text": "What kind of cat is this? Answer with one word."}],
},
]
text = processor.apply_chat_template(messages, add_generation_prompt=True, return_tensors="pt")
inputs = processor(images=images, text=text, return_tensors="pt", padding=True, truncation=True).to(model.device)
generated_ids = model.generate(**inputs, max_new_tokens=32768, temperature=0.8)
generated_ids_trimmed = [
out_ids[len(in_ids) :] for in_ids, out_ids in zip(inputs.input_ids, generated_ids)
]
response = processor.batch_decode(
generated_ids_trimmed, skip_special_tokens=True, clean_up_tokenization_spaces=False
)[0]
print(response)
📚 引用信息
@misc{kimiteam2025kimivltechnicalreport,
title={{Kimi-VL} Technical Report},
author={Kimi Team and Angang Du and Bohong Yin and Bowei Xing and Bowen Qu and Bowen Wang and Cheng Chen and Chenlin Zhang and Chenzhuang Du and Chu Wei and Congcong Wang and Dehao Zhang and Dikang Du and Dongliang Wang and Enming Yuan and Enzhe Lu and Fang Li and Flood Sung and Guangda Wei and Guokun Lai and Han Zhu and Hao Ding and Hao Hu and Hao Yang and Hao Zhang and Haoning Wu and Haotian Yao and Haoyu Lu and Heng Wang and Hongcheng Gao and Huabin Zheng and Jiaming Li and Jianlin Su and Jianzhou Wang and Jiaqi Deng and Jiezhong Qiu and Jin Xie and Jinhong Wang and Jingyuan Liu and Junjie Yan and Kun Ouyang and Liang Chen and Lin Sui and Longhui Yu and Mengfan Dong and Mengnan Dong and Nuo Xu and Pengyu Cheng and Qizheng Gu and Runjie Zhou and Shaowei Liu and Sihan Cao and Tao Yu and Tianhui Song and Tongtong Bai and Wei Song and Weiran He and Weixiao Huang and Weixin Xu and Xiaokun Yuan and Xingcheng Yao and Xingzhe Wu and Xinxing Zu and Xinyu Zhou and Xinyuan Wang and Y. Charles and Yan Zhong and Yang Li and Yangyang Hu and Yanru Chen and Yejie Wang and Yibo Liu and Yibo Miao and Yidao Qin and Yimin Chen and Yiping Bao and Yiqin Wang and Yongsheng Kang and Yuanxin Liu and Yulun Du and Yuxin Wu and Yuzhi Wang and Yuzi Yan and Zaida Zhou and Zhaowei Li and Zhejun Jiang and Zheng Zhang and Zhilin Yang and Zhiqi Huang and Zihao Huang and Zijia Zhao and Ziwei Chen},
year={2025},
eprint={2504.07491},
archivePrefix={arXiv},
primaryClass={cs.CV},
url={https://arxiv.org/abs/2504.07491},
}
📄 许可证
本项目采用 MIT 许可证。
Clip Vit Large Patch14
CLIP是由OpenAI开发的视觉-语言模型,通过对比学习将图像和文本映射到共享的嵌入空间,支持零样本图像分类
图像生成文本
C
openai
44.7M
1,710
Clip Vit Base Patch32
CLIP是由OpenAI开发的多模态模型,能够理解图像和文本之间的关系,支持零样本图像分类任务。
图像生成文本
C
openai
14.0M
666
Siglip So400m Patch14 384
Apache-2.0
SigLIP是基于WebLi数据集预训练的视觉语言模型,采用改进的sigmoid损失函数,优化了图像-文本匹配任务。
图像生成文本
Transformers

S
google
6.1M
526
Clip Vit Base Patch16
CLIP是由OpenAI开发的多模态模型,通过对比学习将图像和文本映射到共享的嵌入空间,实现零样本图像分类能力。
图像生成文本
C
openai
4.6M
119
Blip Image Captioning Base
Bsd-3-clause
BLIP是一个先进的视觉-语言预训练模型,擅长图像描述生成任务,支持条件式和非条件式文本生成。
图像生成文本
Transformers

B
Salesforce
2.8M
688
Blip Image Captioning Large
Bsd-3-clause
BLIP是一个统一的视觉-语言预训练框架,擅长图像描述生成任务,支持条件式和无条件式图像描述生成。
图像生成文本
Transformers

B
Salesforce
2.5M
1,312
Openvla 7b
MIT
OpenVLA 7B是一个基于Open X-Embodiment数据集训练的开源视觉-语言-动作模型,能够根据语言指令和摄像头图像生成机器人动作。
图像生成文本
Transformers 英语

O
openvla
1.7M
108
Llava V1.5 7b
LLaVA 是一款开源多模态聊天机器人,基于 LLaMA/Vicuna 微调,支持图文交互。
图像生成文本
Transformers

L
liuhaotian
1.4M
448
Vit Gpt2 Image Captioning
Apache-2.0
这是一个基于ViT和GPT2架构的图像描述生成模型,能够为输入图像生成自然语言描述。
图像生成文本
Transformers

V
nlpconnect
939.88k
887
Blip2 Opt 2.7b
MIT
BLIP-2是一个视觉语言模型,结合了图像编码器和大型语言模型,用于图像到文本的生成任务。
图像生成文本
Transformers 英语

B
Salesforce
867.78k
359
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98