G

GP MoLFormer Uniq

ibm-researchによって開発
GP-MoLFormerは、ZINCおよびPubChemの6.5億から11億の分子SMILES文字列表現を用いて事前学習された化学言語モデルで、分子生成タスクに特化しています。
ダウンロード数 122
リリース時間 : 4/30/2025

モデル概要

GP-MoLFormerは、分子生成タスクのための大規模な自己回帰型化学言語モデルで、線形アテンションと回転位置エンコーディングを採用したデコーダー専用Transformerアーキテクチャを採用しています。

モデル特徴

大規模事前学習
ZINCおよびPubChemの6.5億から11億の分子SMILES文字列で事前学習
ユニーク分子トレーニング
このバージョンは2つのデータセットのすべてのユニーク分子で事前学習されています
多機能分子生成
無条件分子のデノボ生成、骨格補完/修飾、分子最適化をサポート
効率的なアーキテクチャ
線形アテンションと回転位置エンコーディングを採用したTransformerアーキテクチャで計算効率を向上

モデル能力

無条件分子生成
骨格制約付き分子修飾
分子特性最適化
SMILES文字列補完

使用事例

創薬
デノボ分子設計
全く新しい潜在的な薬剤分子構造を生成
有効でユニークかつ一定の新規性を持つ分子を生成可能
分子最適化
微調整またはペアリングチューニングにより分子特性を最適化
分子分布を調整し、より薬剤らしい特性に近づけることが可能
化学研究
骨格修飾
与えられた分子骨格に基づいてバリアント分子を生成
コア構造を維持しながら化学空間を探索可能
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase