V

Vit Base Patch32 224 In21k

googleによって開発
このビジュアルトランスフォーマー(ViT)モデルは、ImageNet-21kデータセットで224x224解像度で事前学習されており、画像分類タスクに適しています。
ダウンロード数 35.10k
リリース時間 : 3/2/2022

モデル概要

ビジュアルトランスフォーマー(ViT)は、BERTに似たトランスフォーマーエンコーダモデルで、教師あり方式で大量の画像で事前学習され、画像特徴を抽出して下流のタスクに適用できます。

モデル特徴

トランスフォーマーベースのビジュアルモデル
BERTに似たトランスフォーマーエンコーダアーキテクチャを採用して画像を処理し、従来のCNNの制限を突破します。
大規模事前学習
ImageNet-21kデータセット(1400万枚の画像、21,843のカテゴリ)で事前学習され、豊富な画像特徴表現を学習します。
柔軟な下流アプリケーション
事前学習された特徴を抽出して、画像分類、物体検出などの様々な下流のビジュアルタスクに使用できます。

モデル能力

画像特徴抽出
画像分類
ビジュアル表現学習

使用事例

コンピュータビジョン
画像分類
事前学習モデルに分類ヘッドを追加することで、様々な画像分類タスクに使用できます。
ImageNetなどのベンチマークデータセットで優れた性能を発揮します
ビジュアル特徴抽出
画像の高度な特徴表現を抽出して、物体検出、画像セグメンテーションなどの他のビジュアルタスクに使用します。
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase