Rtdetr R101vd
Apache-2.0
RT-DETR是首个实时端到端目标检测器,通过混合编码器和查询选择机制实现高效检测,无需NMS后处理。
目标检测
Transformers 英语

R
PekingU
1,369
4
Yolov10x
YOLOv10x 是 YOLO 系列的最新版本,专注于实时端到端目标检测,提供更高的检测精度和更快的推理速度。
目标检测
Y
jameslahm
1,145
41
Yolov10l
YOLOv10 是一个实时端到端目标检测模型,由清华大学团队开发,基于 YOLO 系列的最新改进版本。
目标检测
Y
jameslahm
186
3
Yolov10b
YOLOv10 是一个实时端到端目标检测模型,由清华大学团队开发,基于 YOLO 系列的最新改进版本。
目标检测
Safetensors
Y
jameslahm
97
2
Yolov10m
YOLOv10 是清华大学提出的实时端到端目标检测模型,具有高效和精准的特点。
目标检测
Y
jameslahm
1,003
7
Yolov10s
YOLOv10是清华大学提出的实时端到端目标检测模型,在速度和精度上均有显著提升。
目标检测
Safetensors
Y
jameslahm
907
5
Yolov10s
YOLOv10是一种实时目标检测模型,通过消除非极大值抑制(NMS)等后处理步骤,实现了高效且无额外开销的目标检测。
目标检测
Y
kadirnar
15
0
Yolov10
YOLOv10 是一种高效的无额外代价实时目标检测模型,通过优化架构和训练策略,在保持实时性的同时提升了检测精度。
目标检测
Y
kadirnar
252
45
Mask2former Swin Tiny Coco Panoptic
其他
Mask2Former是基于Transformer的统一图像分割模型,支持实例分割、语义分割和全景分割任务,采用掩码注意力机制提升性能
图像分割
Transformers

M
facebook
4,538
8
Mask2former Swin Small Coco Panoptic
其他
基于Swin骨干网络的Mask2Former小规模版本,专为COCO数据集全景分割任务优化
图像分割
Transformers

M
facebook
240
1
Mask2former Swin Large Coco Panoptic
其他
基于Swin骨干网络的Mask2Former大型版本,专为COCO数据集全景分割任务训练的统一图像分割模型
图像分割
Transformers

M
facebook
37.67k
30
Mask2former Swin Base Coco Panoptic
其他
基于Swin骨干网络的Mask2Former模型,在COCO全景分割数据集上训练,采用统一范式处理实例分割、语义分割和全景分割任务。
图像分割
Transformers

M
facebook
45.01k
14
Mask2former Swin Large Coco Instance
其他
Mask2Former是基于Transformer的统一图像分割模型,采用Swin-Large骨干网络并在COCO数据集上微调,专精实例分割任务
图像分割
Transformers

M
facebook
37.31k
6
Oneformer Coco Dinat Large
MIT
统一图像分割的单一Transformer架构,支持语义分割、实例分割和全景分割三大任务
图像分割
Transformers

O
shi-labs
38
7
Yolos Small 300
Apache-2.0
基于COCO 2017目标检测数据集微调的YOLOS小尺寸模型,采用视觉Transformer架构实现高效目标检测
目标检测
Transformers

Y
hustvl
86
6
Yolos Small Dwr
Apache-2.0
基于COCO 2017目标检测数据集微调的YOLOS模型,采用视觉Transformer架构,适用于目标检测任务。
目标检测
Transformers

Y
hustvl
33
4
Yolos Small
Apache-2.0
基于视觉Transformer(ViT)的目标检测模型,使用DETR损失函数训练,在COCO数据集上表现优异。
目标检测
Transformers

Y
hustvl
154.46k
63
Yolos Tiny
Apache-2.0
基于COCO 2017目标检测数据集微调的YOLOS模型,使用视觉Transformer架构实现高效目标检测。
目标检测
Transformers

Y
hustvl
144.58k
266
Deformable Detr With Box Refine
Apache-2.0
可变形DETR是一种端到端的目标检测模型,结合了Transformer架构和可变形卷积的优势,在COCO数据集上实现了高效的目标检测。
目标检测
Transformers

D
SenseTime
312
4
Maskformer Swin Tiny Coco
其他
基于COCO数据集训练的全景分割模型,采用统一范式处理实例/语义/全景分割任务
图像分割
Transformers

M
facebook
301
6
Maskformer Swin Large Coco
其他
基于Swin骨干网络的大规模MaskFormer模型,统一处理实例/语义/全景分割任务
图像分割
Transformers

M
facebook
849
24
Detr Resnet 50 Dc5
Apache-2.0
DETR是一个基于Transformer架构的端到端目标检测模型,使用ResNet-50作为骨干网络,并在COCO数据集上训练。
目标检测
Transformers

D
facebook
4,038
6
Detr Resnet 101
Apache-2.0
DETR是一个使用Transformer架构的端到端目标检测模型,采用ResNet-101作为骨干网络,在COCO数据集上训练。
目标检测
Transformers

D
facebook
262.94k
119
Detr Resnet 50
Apache-2.0
DETR是一个基于Transformer架构的端到端目标检测模型,使用ResNet-50作为骨干网络,在COCO数据集上训练。
目标检测
Transformers

D
facebook
505.27k
857
Detr Resnet 101 Dc5
Apache-2.0
DETR是一个使用Transformer进行端到端目标检测的模型,采用ResNet-101作为骨干网络并在COCO数据集上训练。
目标检测
Transformers

D
facebook
9,379
18
Maskformer Swin Base Coco
其他
基于Swin骨干网络、在COCO数据集上训练的全景分割模型,统一处理实例/语义/全景分割任务
图像分割
Transformers

M
facebook
3,855
24
Detr Resnet 101 Panoptic
Apache-2.0
DETR是一个结合卷积神经网络与Transformer的端到端目标检测模型,支持全景分割任务。
图像分割
Transformers

D
facebook
610
15
Deformable Detr Single Scale
Apache-2.0
可变形检测变换器(Deformable DETR)单尺度模型,专为目标检测任务设计,采用端到端训练方式,在COCO 2017数据集上表现优异。
目标检测
Transformers

D
SenseTime
712
0
Maskformer Swin Small Coco
其他
基于Swin骨干网络的小型MaskFormer模型,在COCO数据集上训练,用于全景分割任务。
图像分割
Transformers

M
facebook
2,293
3
Detr Resnet 50 Dc5 Panoptic
Apache-2.0
DETR是一个结合卷积神经网络和Transformer架构的端到端目标检测模型,支持全景分割任务。
图像分割
Transformers

D
facebook
45
3
Deformable Detr
Apache-2.0
可变形DETR是一种端到端目标检测模型,使用Transformer架构和可变形注意力机制改进检测性能。
目标检测
Transformers

D
SenseTime
19.60k
19
Detr Resnet 50 Panoptic
Apache-2.0
DETR是基于Transformer架构的端到端目标检测模型,采用ResNet-50作为骨干网络,在COCO数据集上训练,支持目标检测和全景分割任务。
图像分割
Transformers

D
facebook
9,586
137
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98