Esmplusplus Small
ESM++是对ESMC的忠实实现,支持批处理且兼容标准Huggingface接口,无需依赖ESM Python包。小型版本对应ESMC的3亿参数版本。
蛋白质模型
Transformers

E
Synthyra
6,460
14
Progen2 Xlarge
Bsd-3-clause
ProGen2-xlarge是基于Nijkamp等人提出的基础模型,经过配置和前向传播修改的蛋白质生成模型。
大型语言模型
Transformers

P
hugohrban
38
1
Progen2 Base
Bsd-3-clause
ProGen2-base是基于Nijkamp等人研究的蛋白质生成模型,支持蛋白质序列的生成和预测。
大型语言模型
Transformers

P
hugohrban
4,937
3
Palmyra Med 70B
其他
Palmyra-Med是Writer专为医疗健康领域设计的大语言模型,在生物医学基准测试中表现优异,领先于多个主流模型。
大型语言模型
Transformers 支持多种语言

P
Writer
50
80
Esm2 T36 3B UR50D
MIT
ESM-2是基于掩码语言建模目标训练的新一代蛋白质模型,适用于各类以蛋白质序列为输入的下游任务微调。
蛋白质模型
Transformers

E
facebook
3.5M
22
Esm2 T30 150M UR50D
MIT
ESM-2是基于遮蔽语言建模目标训练的最先进蛋白质模型,适用于对各类以蛋白质序列为输入的任务进行微调。
蛋白质模型
Transformers

E
facebook
69.91k
7
Esm2 T12 35M UR50D
MIT
ESM-2是基于掩码语言建模目标训练的前沿蛋白质模型,适用于各类蛋白质序列分析任务
蛋白质模型
Transformers

E
facebook
332.83k
15
Esm2 T6 8M UR50D
MIT
ESM-2是基于掩码语言建模目标训练的新一代蛋白质模型,适用于对蛋白质序列进行各类任务的微调。
蛋白质模型
Transformers

E
facebook
1.5M
21
Esm2 T48 15B UR50D
MIT
ESM-2是基于掩码语言建模目标训练的最先进蛋白质模型,适用于对蛋白质序列进行各种任务的微调。
蛋白质模型
Transformers

E
facebook
20.80k
20
Esm 1b
ESM-1b 是一个基于 Transformer 架构的大规模蛋白质语言模型,由 Facebook AI Research (FAIR) 开发。
大型语言模型
Transformers

E
facebook
342
17
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98