Mask2former Swin Large Mapillary Vistas Panoptic
模型简介
Mask2Former是一个统一的图像分割框架,通过预测一组掩码及对应标签来处理实例分割、语义分割和全景分割任务。相比前代模型MaskFormer,在性能和效率上均有显著提升。
模型特点
统一分割框架
将实例分割、语义分割和全景分割统一为实例分割任务处理
多尺度可变形注意力
采用多尺度可变形注意力Transformer升级像素解码器,提升性能
掩码注意力机制
引入掩码注意力机制的Transformer解码器,以零计算增量提升性能
高效训练
通过子采样点计算损失值显著提升训练效率
模型能力
图像分割
全景分割
实例分割
语义分割
使用案例
计算机视觉
街景理解
用于Mapillary Vistas等街景数据集的全景分割
可准确识别和分割街景中的各类物体
物体识别与分割
识别图像中的物体并生成精确的掩码
如示例中的猫咪和城堡识别
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98