H

Hair Type Image Detection

由 dima806 开发
基于Google Vision Transformer (ViT)架构的图像分类模型,专门用于从面部图像中识别五种发型类型(卷发、脏辫、扭结发、直发、波浪发),准确率达93%。
下载量 143
发布时间 : 10/15/2024

模型简介

该模型使用预训练的ViT-base-patch16-224-in21k进行微调,能够高效准确地分类面部图像中的发型类型,适用于美妆、时尚和身份识别等应用场景。

模型特点

高精度发型分类
在五类发型识别任务中达到92.8%的整体准确率,其中脏辫分类F1分数高达97.8%
基于ViT架构
采用Google预训练的Vision Transformer基础模型,具有强大的图像特征提取能力
轻量级解决方案
相比传统CNN模型,在保持高精度的同时具有更高效的推理性能

模型能力

面部图像分析
发型分类
多类别图像识别

使用案例

美妆时尚
虚拟发型试戴
在AR美妆应用中实时识别用户当前发型并推荐匹配的发型产品
准确识别用户基础发型类型,提升产品推荐相关性
身份识别
特征辅助识别
作为面部识别系统的补充特征,通过发型特征提高识别准确率
在测试集上对脏辫的识别准确率达99%
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase