Gebert Eng Gat
GEBERT是基於PubMedBERT預訓練的生物醫學實體鏈接模型,通過GAT圖編碼器增強UMLS概念圖的表示學習
下載量 41
發布時間 : 9/15/2023
模型概述
該模型結合BERT架構與圖注意力網絡(GAT),專門針對生物醫學領域的實體鏈接任務進行優化,利用UMLS知識圖譜提升概念表示質量
模型特點
圖結構增強
通過GAT編碼器整合UMLS概念圖的拓撲關係,增強生物醫學概念的上下文表示
領域適配預訓練
基於PubMedBERT進行二次預訓練,專門針對生物醫學文本特性優化
多模態知識融合
同時利用概念名稱文本信息和知識圖譜結構信息進行聯合訓練
模型能力
生物醫學實體識別
概念規範化
知識圖譜嵌入
跨文檔實體鏈接
使用案例
醫學文獻處理
電子病歷標準化
將臨床記錄中的非標準術語鏈接到UMLS標準概念
提升病歷結構化程度和檢索效率
生物醫學文獻挖掘
從研究論文中提取規範化疾病/藥物實體
支持大規模生物醫學關係分析
知識圖譜構建
圖譜實體對齊
解決不同來源生物醫學知識庫的實體異構問題
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98