C

CONCH

由MahmoodLab開發
CONCH是一個針對組織病理學的視覺語言基礎模型,基於117萬張病理圖像-文本對進行預訓練,在14項計算病理學任務中展現出最先進的性能。
下載量 12.76k
發布時間 : 1/5/2024

模型概述

CONCH是一個視覺語言基礎模型,專門針對組織病理學設計,能夠處理病理圖像和文本,適用於圖像分類、文本到圖像檢索、圖像到文本檢索、描述生成和組織分割等多種任務。

模型特點

多模態能力
能夠同時處理病理圖像和文本,支持多種跨模態任務。
廣泛適用性
不僅適用於H&E染色圖像,還能為非H&E染色圖像(如免疫組化和特殊染色)生成更具表現力的特徵表示。
低汙染風險
預訓練未使用TCGA、PAIP、GTEX等公開病理切片數據集,最大限度降低公共基準或私有病理數據集的汙染風險。

模型能力

圖像特徵提取
文本特徵提取
圖像分類
文本到圖像檢索
圖像到文本檢索
描述生成
組織分割

使用案例

計算病理學
零樣本ROI分類
無需額外訓練即可對病理圖像中的感興趣區域進行分類。
零樣本ROI圖文雙向檢索
支持病理圖像和文本之間的雙向檢索。
基於MI-Zero的零樣本WSI分類
支持全切片圖像的零樣本分類。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase