Bioclinical ModernBERT Base
MIT
BioClinical ModernBERT是一個基於ModernBERT構建的生物醫學和臨床自然語言處理模型,具有長上下文處理能力,在生物醫學和臨床NLP任務中表現出色。
大型語言模型
Transformers 英語

B
thomas-sounack
115
9
Black Ink Guild Pernicious Prophecy 70B EmbedFix
這是基於多個70B參數模型的合併改進版本,主要調整了嵌入層尺寸以匹配標準L3 70B模型規格。
大型語言模型
Transformers 英語

B
Strangedove
78
2
Med CXRGen F
Apache-2.0
Med-CXRGen-F是一個基於LLaVA-v1.5-7B微調的多模態大語言模型,專門用於放射學報告生成任務,特別是胸部X光檢查結果部分的自動生成。
圖像生成文本
Transformers

M
X-iZhang
86
1
C2S Pythia 410m Cell Type Prediction
基於Pythia-410m架構的細胞類型預測模型,通過Cell2Sentence方法將scRNA-seq數據轉化為'細胞句子'進行微調,專注於單細胞RNA測序數據的細胞類型預測。
大型語言模型
Transformers 英語

C
vandijklab
266
6
JSL MedPhi2 2.7B
由John Snow Labs開發的醫療領域大語言模型,基於Microsoft Phi-2架構優化
大型語言模型
Transformers 其他

J
johnsnowlabs
3,050
3
Biomistral MedMNX
BioMistral-MedMNX 是一個通過融合多個預訓練模型而創建的生物醫學領域專用語言模型,採用 DARE 和 TIES 融合方法優化性能。
大型語言模型
Transformers

B
BioMistral
3,509
4
Wikimedical Sent Biobert Multi
基於sentence-transformers的多語言醫學文本句子嵌入模型,支持8種語言
文本嵌入
Transformers

W
nuvocare
14
1
All Mpnet Outcome Similarity
基於MPNet架構的通用句子嵌入模型,針對句子相似度任務進行了優化,特別適用於臨床實驗結果相似性分析。
文本嵌入 英語
A
laiking
18
0
Primarygleasonbert
Bio_ClinicalBERT是基於BERT架構的臨床文本處理模型,專門針對生物醫學和臨床領域的文本進行優化。
文本分類
Transformers

P
jkefeli
30
2
Sci Five Radsum23
基於SciFive-base-Pubmed_PMC微調的T5模型,專為放射學報告摘要生成任務設計,在MIMIC-III數據集上訓練
文本生成
Transformers 英語

S
chizhikchi
150
0
Druggpt
Gpl-3.0
DrugGPT是基於GPT2結構的生成式藥物設計模型,通過自然語言處理技術為藥物設計帶來創新。
分子模型
Transformers

D
liyuesen
495
21
PMC LLAMA 7B
Apache-2.0
PMC_LLaMA_7B是基於LLaMA-7b在S2ORC數據集中的PMC論文上進行微調的版本,專注於醫療領域的文本生成任務。
大型語言模型
Transformers

P
chaoyi-wu
813
63
Scideberta Full
基於DeBERTa v2架構的學術論文專用語言模型,在科學文獻處理任務中表現優異
大型語言模型
Transformers 英語

S
KISTI-AI
515
3
T5 Small Finetuned Pubmed
Apache-2.0
基於t5-small模型在PubMed摘要數據集上微調的文本摘要生成模型
文本生成
Transformers

T
andkelly21
18
0
Pubmedbert Mnli Snli Scinli Scitail Mednli Stsb
基於PubMedBERT的句子轉換器模型,用於生成句子和段落的768維向量表示,適用於語義搜索和聚類任務。
文本嵌入
Transformers

P
pritamdeka
213
7
Stanford Deidentifier Only Radiology Reports Augmented
MIT
基於轉換器模型的放射學報告自動化去標識化系統,結合規則方法實現高精度PHI識別與替換
序列標註
Transformers 英語

S
StanfordAIMI
30
2
Stanford Deidentifier Only Radiology Reports
MIT
基於轉換器與規則方法的放射報告自動化去標識化系統,能檢測PHI實體並用擬真值替換
序列標註
Transformers 英語

S
StanfordAIMI
26
4
GO Language
MIT
本模型旨在將蛋白質的基因本體定義編碼為向量表示,用於探索基因層面的相似性以及功能術語間的比較。
大型語言模型
Transformers

G
damlab
25
1
Bioformer Litcovid
Apache-2.0
基於164,179篇COVID-19摘要預訓練的生物醫學語言模型,在COVID-19主題分類任務中表現優異
大型語言模型
Transformers 英語

B
bioformers
20
0
Biolinkbert Base
Apache-2.0
BioLinkBERT是基於PubMed摘要及文獻引用鏈接信息預訓練的改進版BERT模型,擅長生物醫學NLP任務
大型語言模型
Transformers 英語

B
michiyasunaga
33.34k
37
Bio ClinicalBERT
MIT
Bio+Clinical BERT是從BioBERT初始化的臨床BERT模型,在MIMIC III的所有筆記上進行訓練,適用於生物醫學和臨床文本處理。
大型語言模型 英語
B
emilyalsentzer
2.0M
334
Biobert It
該模型基於意大利生物醫學數據進行訓練,專注於處理意大利語的生物醫學相關內容。
大型語言模型
Transformers

B
marcopost-it
368
1
HIV BERT
MIT
基於ProtBert-BFD優化的HIV特異性蛋白質序列預測模型,通過HIV基因組微調提升相關任務表現
大型語言模型
Transformers

H
damlab
19
0
Biomednlp BiomedBERT Base Uncased Abstract Fulltext
MIT
BiomedBERT是基於PubMed摘要和PubMedCentral全文預訓練的生物醫學領域專用語言模型,在多項生物醫學NLP任務中達到最先進水平。
大型語言模型 英語
B
microsoft
1.7M
240
Bioredditbert Uncased
基於BioBERT初始化並在健康相關Reddit帖子上進一步預訓練的BERT模型,專注於社交媒體醫療文本處理
大型語言模型 英語
B
cambridgeltl
295
5
Biom ALBERT Xxlarge
基於BERT、ALBERT和ELECTRA構建的大型生物醫學語言模型,專注於生物醫學領域任務
大型語言模型
Transformers

B
sultan
77
2
COVID SciBERT
基於科學文本訓練的BERT模型SciBERT的小型語言建模擴展,特別針對COVID-19相關研究進行了優化
大型語言模型 英語
C
lordtt13
15
2
Declutr Sci Base
Apache-2.0
基於SciBERT的科學文本句子編碼器,通過自監督學習在200萬篇科學論文上訓練
文本嵌入 英語
D
johngiorgi
50
9
Vetbert
Openrail
VetBERT是一個專為處理獸醫臨床筆記設計的預訓練語言模型,基於Bio_ClinicalBERT進一步在獸醫醫學領域數據上訓練。
大型語言模型
Transformers 英語

V
havocy28
87
2
Biomednlp BiomedBERT Base Uncased Abstract
MIT
基於PubMed文獻摘要預訓練的生物醫學領域專用BERT模型,在多項生物醫學NLP任務中實現最先進性能
大型語言模型 英語
B
microsoft
240.01k
74
Bio Lm
基於RoBERTa基礎預訓練模型,在生命科學領域的英文科學文本上進一步訓練的語言模型
大型語言模型
B
EMBO
16
0
Coder All
Apache-2.0
CODER 是一個融合知識的跨語言醫學術語嵌入模型,用於醫學術語標準化。
知識圖譜
Transformers 英語

C
GanjinZero
20
3
Bart Large Cnn Finetuned Pubmed
MIT
基於BART-large-cnn在醫學文獻摘要數據集上微調的文本生成模型,擅長醫學文獻摘要生成任務
文本生成
Transformers

B
Kevincp560
126
2
Umlsbert ENG
Apache-2.0
CODER是一個基於知識注入的跨語言醫學術語嵌入模型,專注於醫學術語標準化任務。
知識圖譜
Transformers 英語

U
GanjinZero
3,400
13
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98