Chemberta Zinc Base V1
C
Chemberta Zinc Base V1
Developed by seyonec
基于RoBERTa架构的Transformer模型,专为化学SMILES字符串的掩码语言建模任务设计
Downloads 323.83k
Release Time : 3/2/2022
Model Overview
该模型通过预训练学习化学SMILES字符串的表示,能够预测分子序列中的标记,并可用于分子性质预测和结构分析
Model Features
化学SMILES专用预训练
在ZINC数据集上专门针对化学SMILES表示法进行预训练
分子性质预测能力
学习到的表征可用于预测毒性、溶解性、类药性等分子性质
注意力可视化
提供注意力机制可视化工具,帮助识别影响化学性质的重要子结构
迁移学习基础
可作为图卷积和注意力模型的特征提取器,或用于BERT微调
Model Capabilities
化学SMILES序列预测
分子变体生成
分子性质预测
化学子结构识别
Use Cases
药物发现
分子性质优化
预测和优化候选药物的溶解性、毒性等性质
化学教育
子结构识别教学
通过注意力可视化帮助学生理解影响化学性质的关键结构
材料设计
分子变体生成
在可探索的化学空间内预测分子的合理变体
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 Chinese
R
uer
2,694
98