Clinical ModernBERT
臨床現代BERT是一種基於編碼器的Transformer模型,專為處理生物醫學和臨床文本設計,支持長達8192個標記的上下文長度。
下載量 1,469
發布時間 : 3/27/2025
模型概述
該模型旨在生成語義豐富的表示,既能捕捉生物醫學文獻的微妙語法,也能理解臨床敘述的複雜語義。適用於檢索增強生成、細粒度文本分類和領域特定實體抽取等任務。
模型特點
擴展上下文長度
支持處理8,192個標記的序列,能捕獲長距離依賴和完整文檔上下文。
GeGLU激活函數
使用GeGLU激活函數,通過控制信息流增強非線性表示和模型穩定性。
旋轉位置編碼
採用RoPE編碼相對位置信息,提供穩健的位置數據處理,尤其適用於擴展上下文。
閃存注意力
使用閃存注意力分塊計算自注意力,將內存開銷從二次降低至近線性複雜度,高效處理長序列。
模型能力
生物醫學文本理解
臨床敘述語義分析
長文本處理
掩碼語言建模
使用案例
醫療保健
臨床信息檢索
用於檢索與臨床相關的醫學文獻和記錄。
電子健康記錄分析
分析電子健康記錄中的臨床敘述,提取關鍵信息。
臨床決策支持系統
為臨床決策提供基於文本的分析支持。
生物醫學研究
循證醫學文獻檢索
檢索和分析生物醫學文獻,支持循證醫學研究。
生物醫學實體抽取
從生物醫學文本中抽取特定實體(如藥物名稱、疾病代碼等)。
精選推薦AI模型
Qwen2.5 VL 7B Abliterated Caption It I1 GGUF
Apache-2.0
Qwen2.5-VL-7B-Abliterated-Caption-it的量化版本,支持多語言圖像描述任務。
圖像生成文本
Transformers 支持多種語言

Q
mradermacher
167
1
Nunchaku Flux.1 Dev Colossus
其他
Colossus Project Flux 的 Nunchaku 量化版本,旨在根據文本提示生成高質量圖像。該模型在優化推理效率的同時,將性能損失降至最低。
圖像生成 英語
N
nunchaku-tech
235
3
Qwen2.5 VL 7B Abliterated Caption It GGUF
Apache-2.0
這是一個基於Qwen2.5-VL-7B模型的靜態量化版本,專注於圖像描述生成任務,支持多種語言。
圖像生成文本
Transformers 支持多種語言

Q
mradermacher
133
1
Olmocr 7B 0725 FP8
Apache-2.0
olmOCR-7B-0725-FP8是基於Qwen2.5-VL-7B-Instruct模型,使用olmOCR-mix-0225數據集微調後量化為FP8版本的文檔OCR模型。
圖像生成文本
Transformers 英語

O
allenai
881
3
Lucy 128k GGUF
Apache-2.0
Lucy-128k是基於Qwen3-1.7B開發的專注於代理式網絡搜索和輕量級瀏覽的模型,在移動設備上也能高效運行。
大型語言模型
Transformers 英語

L
Mungert
263
2