Esmplusplus Small
ESM++是對ESMC的忠實實現,支持批處理且兼容標準Huggingface接口,無需依賴ESM Python包。小型版本對應ESMC的3億參數版本。
蛋白質模型
Transformers

E
Synthyra
6,460
14
Biot5 Plus Large
MIT
BioT5+ 是一個基於T5架構的大型生物醫學語言模型,通過IUPAC整合與多任務調優實現廣義生物學理解。
大型語言模型
Transformers 英語

B
QizhiPei
52
2
Bert Protein Classifier
該模型基於Bert-Base-Uncased微調,用於根據蛋白質氨基酸序列預測其功能的多標籤分類任務。
蛋白質模型
Transformers

B
oohtmeel
1,772
1
Biot5 Base
MIT
BioT5是一個專注於生物學和化學領域的T5模型,通過化學知識與自然語言關聯增強生物學中的跨模態整合。
大型語言模型
Transformers 英語

B
QizhiPei
202
8
Prot Bert Finetuned Smiles Bindingdb
基於Rostlab/prot_bert微調的蛋白質-SMILES相互作用預測模型
大型語言模型
Transformers

P
nepp1d0
26
0
Singlebertmodel ProtBertfinetuned Smilesbindingdb
該模型是基於Rostlab/prot_bert微調的版本,用於處理蛋白質序列與SMILES分子表示之間的關聯任務。
大型語言模型
Transformers

S
nepp1d0
38
0
Tcr Bert Mlm Only
TCR-BERT 是一個基於 BERT 架構的預訓練模型,專門針對 T 細胞受體(TCR)序列進行優化,通過掩碼氨基酸建模任務進行訓練。
蛋白質模型
Transformers

T
wukevin
27
4
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98