# 生物醫學文本處理

Modernbert Base Tr Uncased
MIT
基於ModernBERT架構的土耳其語預訓練模型,支持8192上下文長度,在多個領域表現優異
大型語言模型 Transformers 其他
M
artiwise-ai
159
9
Extractive Summarization
MIT
該模型是基於t5-small微調的版本,專為使用PubMed數據集總結科學和醫學文本而優化。
文本生成 英語
E
nyamuda
94
0
Med T5 Summ Ru
用於俄語生物醫學文本抽象摘要生成的序列到序列模型
文本生成 Transformers 其他
M
sacreemure
27
0
Biomednlp BiomedBERT Large Uncased Abstract
MIT
BiomedBERT是基於PubMed摘要文本從頭預訓練的生物醫學領域大型語言模型,專注於提升生物醫學自然語言處理任務表現。
大型語言模型 Transformers 英語
B
microsoft
637
18
Med KEBERT
Openrail
這是一個基於BERT架構的生物醫學領域預訓練語言模型,適用於處理生物醫學文本數據。
大型語言模型 Transformers 英語
M
xmcmic
769
1
Roberta Es Clinical Trials Ner
基於RoBERTa的西班牙語臨床試驗文本命名實體識別模型,可檢測4種醫學語義組
序列標註 Transformers 西班牙語
R
lcampillos
277
10
Bio Bert Ft
基於BioBERT的生物醫學領域微調模型,在特定任務上取得了0.8621的F1分數
大型語言模型 Transformers
B
ericntay
15
0
Stanford Deidentifier With Radiology Reports And I2b2
MIT
基於轉換器模型的放射學報告自動化去標識系統,通過檢測受保護健康信息(PHI)並替換為擬真替代值實現隱私保護
序列標註 Transformers 英語
S
StanfordAIMI
126
6
Stanford Deidentifier Only I2b2
MIT
基於轉換器模型的放射學報告自動去標識化系統,結合規則方法實現高精度PHI識別與替換
序列標註 Transformers 英語
S
StanfordAIMI
98
5
Mt5 Chinese Small
基於mT5-small微調的摘要生成模型,支持中文文本摘要任務
文本生成 Transformers 中文
M
yihsuan
36
7
Biolinkbert Large
Apache-2.0
BioLinkBERT是基於PubMed摘要及文獻引用鏈接信息預訓練的生物醫學語言模型,通過整合跨文檔知識提升性能。
大型語言模型 Transformers 英語
B
michiyasunaga
3,152
35
Biobertpt Clin
BioBERTpt是基於BERT架構的葡萄牙語臨床與生物醫學模型,專門針對臨床命名實體識別任務優化。
大型語言模型 其他
B
pucpr
109
11
Biobertpt All
基於BERT的葡萄牙語臨床與生物醫學模型,在臨床記錄和生物醫學文獻上訓練
大型語言模型 其他
B
pucpr
1,460
23
Rubiobert
RuBioRoBERTa 是一個針對俄語生物醫學文本預訓練的 RoBERTa 模型,專門用於處理生物醫學領域的自然語言處理任務。
大型語言模型 Transformers
R
alexyalunin
686
1
Covidbert Nli
基於冠狀病毒研究論文數據集CORD19訓練的BERT模型,通過自然語言推理任務微調生成通用句子嵌入表示
文本嵌入
C
gsarti
26
0
Pubmedbert Abstract Cord19
MIT
基於PubMedBERT在CORD-19摘要數據集上微調的生物醫學文本處理模型
大型語言模型 Transformers
P
pritamdeka
16
0
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase