Webssl Dino7b Full8b 518
W
Webssl Dino7b Full8b 518
由 facebook 开发
基于80亿MetaCLIP数据训练的70亿参数视觉Transformer模型,采用DINOv2自监督学习框架,无需语言监督
下载量 157
发布时间 : 4/25/2025
模型简介
这是一个通过自监督学习在网页级图像数据上训练的视觉Transformer模型,证明纯视觉学习方案在各类视觉任务上可达到甚至超越语言监督模型的性能
模型特点
纯视觉自监督学习
完全无需语言监督,仅通过网页图像数据进行训练
大规模训练数据
基于80亿MetaCLIP网络图像样本训练
高分辨率处理
支持518×518像素的高分辨率图像输入
多任务适应性
在传统视觉基准测试及多模态任务中表现卓越
模型能力
图像特征提取
视觉表征学习
视觉问答
OCR识别
图表理解
使用案例
计算机视觉
图像分类
用于图像分类任务的特征提取
在传统视觉基准测试中表现卓越
目标检测
作为目标检测任务的基础特征提取器
多模态应用
视觉问答
用于需要理解图像内容的问答系统
文档理解
用于OCR和文档布局分析
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98