G

GP MoLFormer Uniq

由ibm-research開發
GP-MoLFormer是基於ZINC和PubChem中6.5億至11億分子SMILES字符串表示進行預訓練的化學語言模型,專注於分子生成任務。
下載量 122
發布時間 : 4/30/2025

模型概述

GP-MoLFormer是一個用於分子生成任務的大規模自迴歸化學語言模型,採用線性注意力和旋轉位置編碼的僅解碼器Transformer架構。

模型特點

大規模預訓練
基於ZINC和PubChem中6.5億至11億分子SMILES字符串進行預訓練
唯一分子訓練
本版本在兩個數據集所有唯一分子上預訓練
多功能分子生成
支持無條件分子從頭生成、骨架補全/修飾和分子優化
高效架構
採用線性注意力和旋轉位置編碼的Transformer架構,提高計算效率

模型能力

無條件分子生成
骨架約束分子修飾
分子屬性優化
SMILES字符串補全

使用案例

藥物發現
從頭分子設計
生成全新的潛在藥物分子結構
可生成有效、獨特且具有一定新穎性的分子
分子優化
通過微調或配對調優優化分子特性
可調整分子分佈使其更接近類藥物特性
化學研究
骨架修飾
基於給定分子骨架生成變體分子
可保持核心結構同時探索化學空間
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase