Vit Base Patch16 224 In21k Human Activity Recognition
基于Google Vision Transformer (ViT)微调的人类活动识别模型,用于图像分类任务
下载量 92
发布时间 : 1/24/2023
模型简介
该模型是基于Google的ViT模型微调而成,专门用于识别图像中的人类不同活动。在评估集上达到了83.81%的准确率。
模型特点
高准确率
在人类活动识别任务上达到83.81%的准确率
基于ViT架构
使用Google Vision Transformer基础模型进行微调
多指标评估
提供准确率、F1值、召回率和精确率等多种评估指标
模型能力
图像分类
人类活动识别
多类别分类
使用案例
监控与安防
监控视频分析
识别监控视频中的人类活动
可准确识别多种人类活动
健康与运动
运动动作识别
识别健身或运动中的动作
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98