G

GP MoLFormer Uniq

Developed by ibm-research
GP-MoLFormer是基于ZINC和PubChem中6.5亿至11亿分子SMILES字符串表示进行预训练的化学语言模型,专注于分子生成任务。
Downloads 122
Release Time : 4/30/2025

Model Overview

GP-MoLFormer是一个用于分子生成任务的大规模自回归化学语言模型,采用线性注意力和旋转位置编码的仅解码器Transformer架构。

Model Features

大规模预训练
基于ZINC和PubChem中6.5亿至11亿分子SMILES字符串进行预训练
唯一分子训练
本版本在两个数据集所有唯一分子上预训练
多功能分子生成
支持无条件分子从头生成、骨架补全/修饰和分子优化
高效架构
采用线性注意力和旋转位置编码的Transformer架构,提高计算效率

Model Capabilities

无条件分子生成
骨架约束分子修饰
分子属性优化
SMILES字符串补全

Use Cases

药物发现
从头分子设计
生成全新的潜在药物分子结构
可生成有效、独特且具有一定新颖性的分子
分子优化
通过微调或配对调优优化分子特性
可调整分子分布使其更接近类药物特性
化学研究
骨架修饰
基于给定分子骨架生成变体分子
可保持核心结构同时探索化学空间
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase