M

Monet

由suinleelab開發
基於CLIP ViT-L/14架構的視覺-語言基礎模型,專精皮膚病學圖像分析,通過醫學文獻訓練實現透明醫療影像AI
下載量 655
發布時間 : 3/26/2024

模型概述

MONET是基於CLIP架構的醫學視覺-語言模型,能夠精準標註皮膚病圖像中的醫學概念,為AI系統開發提供透明度支持

模型特點

醫學文獻驅動訓練
使用105,550張皮膚病學圖像及配對醫學文獻描述進行訓練
臨床級精準度
經皮膚科醫生驗證,醫學概念標註能力媲美監督模型
全流程透明度
支持從模型解釋到數據集審計的完整透明化流程
跨模態對齊
通過對比損失實現圖像與醫學文本的精準語義對齊

模型能力

皮膚病圖像分析
醫學概念標註
跨模態檢索
零樣本分類

使用案例

醫療輔助診斷
皮膚病特徵識別
自動識別皮膚病變的臨床特徵
與專業醫生標註結果相當
醫學教育輔助
生成皮膚病圖像的標準化教學標註
醫學研究
文獻-圖像關聯分析
建立醫學文獻與臨床圖像的語義關聯
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase