V

Vit Large Patch32 384 Melanoma

UnipaPolitoUnimoreによって開発
GoogleのViT-Largeモデルを微調整したメラノーマ画像分類モデルで、評価セットで82.73%の精度を達成
ダウンロード数 100
リリース時間 : 11/16/2022

モデル概要

このモデルはVision Transformerアーキテクチャに基づく医療画像分類モデルで、特にメラノーマ検出タスク向けに微調整されています。

モデル特徴

高精度分類
メラノーマ分類タスクで82.73%の精度を達成
Transformerアーキテクチャ採用
先進的なVision Transformerアーキテクチャを採用し、医療画像処理に適しています
小バッチ訓練最適化
勾配蓄積技術により効果的な訓練プロセスを実現

モデル能力

皮膚病変画像分類
医療画像分析
メラノーマ検出

使用事例

医療診断
皮膚癌スクリーニング
医師が皮膚病変の初期スクリーニングを支援するために使用
精度82.73%
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase