Gobert
MIT
GoBERT是一款專門用於通用基因功能預測的模型,它藉助基因本體圖信息,能夠有效捕捉基因本體(GO)功能之間的關係。
蛋白質模型
Safetensors
G
MM-YY-WW
479
1
Rnabert
RNABERT是基於非編碼RNA(ncRNA)的預訓練模型,採用掩碼語言建模(MLM)和結構對齊學習(SAL)目標。
分子模型 其他
R
multimolecule
8,166
4
Rinalmo
RiNALMo是基於掩碼語言建模(MLM)目標預訓練的非編碼RNA(ncRNA)模型,在大量非編碼RNA序列上通過自監督方式訓練。
蛋白質模型 其他
R
multimolecule
21.38k
2
Birna Bert
基於BERT架構的Transformer編碼器模型,專為生成RNA序列嵌入而設計
文本嵌入
Transformers

B
buetnlpbio
364
1
Bert Protein Classifier
該模型基於Bert-Base-Uncased微調,用於根據蛋白質氨基酸序列預測其功能的多標籤分類任務。
蛋白質模型
Transformers

B
oohtmeel
1,772
1
Progen2 Small
Bsd-3-clause
ProGen2-small是基於Nijkamp等人研究的蛋白質生成模型,經過輕微調整配置和前向傳播流程的鏡像版本。
大型語言模型
Transformers

P
hugohrban
6,505
2
Protein Matryoshka Embeddings
CC
該模型為蛋白質序列生成嵌入向量,支持縮短版嵌入以加速搜索任務。
蛋白質模型
Transformers

P
monsoon-nlp
2,121
7
Esm2 T6 8M UR50D Sequence Classifier V1
基於ESM-2蛋白質語言模型的序列分類器,用於蛋白質序列的零樣本分類任務。
文本分類
Transformers

E
Xenova
25
0
Nucleotide Transformer V2 50m Multi Species
核苷酸變換器是一組基於全基因組DNA序列進行預訓練的基礎語言模型,整合了3200多個人類基因組和850個廣泛物種的基因組數據。
分子模型
Transformers

N
InstaDeepAI
18.72k
3
Esm1b T33 650M UR50S
MIT
ESM-1b是基於Transformer的蛋白質語言模型,通過無監督學習蛋白質序列數據,可用於蛋白質結構和功能預測。
蛋白質模型
Transformers

E
facebook
24.20k
18
Esm2 T33 650M UR50D
MIT
ESM-2是基於掩碼語言建模目標訓練的最先進蛋白質模型,適用於對蛋白質序列進行分析和預測任務
蛋白質模型
Transformers

E
facebook
640.23k
41
Tcr Bert Mlm Only
TCR-BERT 是一個基於 BERT 架構的預訓練模型,專門針對 T 細胞受體(TCR)序列進行優化,通過掩碼氨基酸建模任務進行訓練。
蛋白質模型
Transformers

T
wukevin
27
4
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98