M

Monet

suinleelabによって開発
CLIP ViT-L/14アーキテクチャに基づく視覚-言語基盤モデルで、皮膚病学画像分析に特化し、医学文献で訓練された透明性のある医療画像AI
ダウンロード数 655
リリース時間 : 3/26/2024

モデル概要

MONETはCLIPアーキテクチャに基づく医学的視覚-言語モデルで、皮膚病画像の医学概念を正確にアノテーションし、AIシステム開発に透明性を提供

モデル特徴

医学文献駆動型トレーニング
105,550枚の皮膚病学画像と対応する医学文献記述を使用して訓練
臨床レベルの精度
皮膚科医によって検証され、医学概念アノテーション能力は教師ありモデルに匹敵
全プロセスの透明性
モデル解釈からデータセット監査までの完全な透明化プロセスをサポート
クロスモーダルアライメント
コントラスト損失を通じて画像と医学テキストの正確な意味的アライメントを実現

モデル能力

皮膚病画像分析
医学概念アノテーション
クロスモーダル検索
ゼロショット分類

使用事例

医療補助診断
皮膚病特徴識別
皮膚病変の臨床的特徴を自動識別
専門医のアノテーション結果と同等
医学教育補助
皮膚病画像の標準化された教育用アノテーションを生成
医学研究
文献-画像関連分析
医学文献と臨床画像の意味的関連を確立
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase