Retinaface
RetinafaceはMobileNetまたはResNet50バックボーンネットワークを基にした軽量な顔検出モデルで、効率的に顔を検出し顔のキーポイント座標を提供します。
ダウンロード数 39
リリース時間 : 7/25/2024
モデル概要
RetinaFaceはシングルステージの高密度顔位置特定モデルで、多層の深層畳み込みニューラルネットワークアーキテクチャを採用し、デフォルトでMobileNet0.25をバックボーンネットワークとして使用します(パラメータ数わずか170万)。ResNet50を使用して精度を向上させることも可能です。モデルは検出した顔のバウンディングボックス座標、信頼度スコア、および10個の顔キーポイント座標を返します。
モデル特徴
軽量設計
デフォルトでMobileNet0.25バックボーンネットワークを採用、パラメータ数わずか170万で計算効率が高い
高精度オプション
ResNet50バックボーンネットワークに切り替えてより高い検出精度を実現
マルチタスク出力
顔のバウンディングボックス、信頼度スコア、10個の顔キーポイント座標を同時に出力
シングルステージ検出
シングルステージ高密度検出アーキテクチャを採用し、効率的な顔位置特定を実現
モデル能力
顔検出
顔キーポイント位置特定
リアルタイム顔分析
複数顔シーン処理
使用事例
顔分析
顔属性分析
顔分析パイプラインの最初のステップとして、顔の位置とキーポイントを正確に特定
表情認識、年齢性別推定などの後続タスクのための基礎データを提供
ビデオ監視
ビデオストリーム内で複数の顔をリアルタイムに検出・追跡
セキュリティ監視、群衆分析などのシナリオに利用可能
ヒューマンコンピュータインタラクション
拡張現実
ARアプリケーションに正確な顔位置とキーポイント情報を提供
フェイスフィルター、バーチャルメイク試着などのインタラクティブ機能をサポート
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98