2025年最高の 92 個の分子モデルツール

Chemberta Zinc Base V1
RoBERTaアーキテクチャに基づくTransformerモデルで、化学SMILES文字列のマスク言語モデリングタスク用に設計されています。
分子モデル
C
seyonec
323.83k
48
Molformer XL Both 10pct
Apache-2.0
MoLFormerはZINCとPubChemの11億分子SMILES文字列で事前学習された化学言語モデルで、このバージョンは両データセットの10%サンプルで学習
分子モデル Transformers
M
ibm-research
171.96k
19
Evo 1 8k Base
Apache-2.0
Evoは、長文脈のモデリングと設計が可能な生物学基礎モデルで、StripedHyenaアーキテクチャを使用し、一塩基、バイトレベルの解像度で配列をモデリングできます。
分子モデル Transformers
E
togethercomputer
31.09k
9
Evo 1 131k Base
Apache-2.0
Evoは長いコンテキストのモデリングと設計が可能な生物学的基礎モデルで、ストライプハイエナアーキテクチャを採用し、単一ヌクレオチドのバイトレベルの解像度で配列をモデリングできます。
分子モデル Transformers
E
togethercomputer
22.70k
108
Materials.smi Ted
Apache-2.0
IBMが提案した化学言語基盤モデルで、分子表現変換や量子特性予測など多様なタスクをサポート
分子モデル Transformers
M
ibm-research
20.65k
27
Tabpfn V2 Clf
TabPFNはTransformerアーキテクチャに基づく表データの基礎モデルで、事前データ学習メカニズムにより、タスク固有のトレーニングなしで小規模な表データセットで優れた性能を発揮します。
分子モデル
T
Prior-Labs
20.09k
33
Tabpfn Mix 1.0 Classifier
Apache-2.0
表データに基づく基礎モデルで、事前学習データはランダム分類器の混合から生成された合成データセットに由来します
分子モデル
T
autogluon
19.77k
13
Nucleotide Transformer V2 50m Multi Species
ヌクレオチドトランスフォーマーは、全ゲノムDNA配列を用いて事前学習された一連の基礎言語モデルで、3200以上のヒトゲノムと850種類の広範な生物種のゲノムデータを統合しています。
分子モデル Transformers
N
InstaDeepAI
18.72k
3
Multitask Text And Chemistry T5 Base Augm
MIT
化学と自然言語分野の幅広いタスクを解決するためのマルチドメイン、マルチタスクの言語モデルです。
分子モデル Transformers 英語
M
GT4SD
11.01k
8
Rnaernie
RNAErnieは非コードRNA配列に基づいて自己教師付き事前学習を行うモデルで、多段階マスク言語モデリング目標を採用し、RNA研究に強力な特徴表現能力を提供します。
分子モデル PyTorch
R
multimolecule
11.00k
1
Plantcaduceus L20
Apache-2.0
PlantCaduceusは16種の被子植物ゲノムで事前学習されたDNA言語モデルで、CaduceusとMambaアーキテクチャを採用し、マスク言語モデリング目標を通じて進化的保存性とDNA配列文法を学習します。
分子モデル Transformers
P
kuleshov-group
8,967
1
Geneformer
Apache-2.0
大規模単細胞トランスクリプトームコーパスで事前学習されたTransformerモデル、ネットワーク生物学予測用
分子モデル Transformers
G
ctheodoris
8,365
227
Nucleotide Transformer 500m 1000g
3,202の遺伝的多様性ヒトゲノムで事前学習された5億パラメータのDNA配列解析モデル
分子モデル Transformers
N
InstaDeepAI
8,341
6
Rnabert
RNABERTは非コードRNA(ncRNA)に基づく事前学習モデルで、マスク言語モデリング(MLM)と構造アライメント学習(SAL)の目標を採用しています。
分子モデル その他
R
multimolecule
8,166
4
Caduceus Ph Seqlen 131k D Model 256 N Layer 16
Apache-2.0
Caduceus-PhはMambaDNAアーキテクチャに基づくDNA配列モデリングモデルで、隠れ次元256、16層構造を有します。
分子モデル Transformers
C
kuleshov-group
5,455
6
Agro Nucleotide Transformer 1b
AgroNTは食用植物ゲノムに基づいて訓練されたDNA言語モデルで、ヌクレオチド配列の汎用的な表現を学習できます。
分子モデル Transformers
A
InstaDeepAI
4,869
13
Nucleotide Transformer 500m Human Ref
人間参照ゲノムで事前学習された5億パラメータのTransformerモデルで、3,200以上の多様な人間ゲノムと850種のDNA配列情報を統合
分子モデル Transformers
N
InstaDeepAI
4,482
12
Bert Base Smiles
Openrail
これはSMILES(Simplified Molecular Input Line Entry System)文字列で事前学習された双方向トランスフォーマーモデルで、主に分子関連タスクに使用されます。
分子モデル Transformers
B
unikei
3,688
7
Materials.selfies Ted
Apache-2.0
Transformerアーキテクチャに基づくエンコーダ-デコーダモデルで、SELFIESを用いた分子特性評価のために設計
分子モデル Transformers
M
ibm-research
3,343
7
Plantcaduceus L32
Apache-2.0
PlantCaduceusは16種の被子植物ゲノムで事前学習されたDNA言語モデルで、CaduceusとMambaアーキテクチャを採用し、マスク言語モデリング目標を通じて進化的保存性とDNA配列文法を学習します。
分子モデル Transformers
P
kuleshov-group
3,340
7
Hyenadna Small 32k Seqlen Hf
Bsd-3-clause
HyenaDNAは長距離ゲノム基盤モデルで、単一塩基解像度において最大100万トークンの文脈長で事前学習されています。
分子モデル Transformers その他
H
LongSafari
2,885
2
GROVER
GROVERは、ヒトゲノム配列の文脈表現を理解し生成するために特別に設計された事前学習済みDNA言語モデルです。
分子モデル Transformers
G
PoetschLab
2,847
14
Nucleotide Transformer 2.5b Multi Species
850種の生物ゲノムで事前学習されたDNA配列解析モデル、分子表現型予測などのタスクをサポート
分子モデル Transformers
N
InstaDeepAI
2,714
38
Caduceus Ps Seqlen 131k D Model 256 N Layer 16
Apache-2.0
Caduceus-PSは逆相補等変性を持つDNA配列モデリングモデルで、長い配列処理のために設計されています。
分子モデル Transformers
C
kuleshov-group
2,618
14
Geneformer
Apache-2.0
Geneformerは大規模な単細胞トランスクリプトームデータに基づいて事前学習されたTransformerモデルで、ネットワーク生物学におけるデータ不足のシナリオに特化して設計されており、文脈を考慮した予測が可能です。
分子モデル Transformers
G
tdc
1,127
4
Hyenadna Large 1m Seqlen Hf
Bsd-3-clause
HyenaDNAは、100万マーカーまでのコンテキスト長で事前学習された長距離ゲノム基盤モデルで、単一ヌクレオチド解像度を備えています。
分子モデル Transformers その他
H
LongSafari
775
25
Chemgpt 4.7M
ChemGPTはGPT-Neoアーキテクチャに基づく生成型分子モデリングTransformerモデルで、事前学習データはPubChem10Mデータセットから取得されています。
分子モデル Transformers
C
ncfrey
652
20
SMILES BERT
5万個のSMILES文字列で訓練されたBERTモデル、化学分子表現の理解と処理に使用
分子モデル Transformers
S
JuIm
583
4
Dqn MountainCar V0
これはstable-baselines3で訓練されたDQNエージェントモデルで、MountainCar-v0環境における強化学習タスクを解決するために特別に設計されています。
分子モデル
D
sb3
578
1
Dna2vec
MIT
Transformerアーキテクチャに基づくDNA配列埋め込みモデル、配列アラインメントとゲノミクス応用をサポート
分子モデル Transformers
D
roychowdhuryresearch
557
1
Segment Nt
SegmentNTはNucleotide TransformerベースのDNAセグメンテーションモデルで、単一塩基解像度で配列中の多様なゲノム要素の位置を予測できます。
分子モデル Transformers
S
InstaDeepAI
546
7
Hubert Ecg Small
心電図分析に向けた自己教師付き事前学習基礎モデルで、164種類の心血管病症検出をサポートします。
分子モデル Transformers
H
Edoardo-BS
535
2
Pretrained Smiles Pubchem10m
このモデルは、PubChemデータベースの1000万のSMILES文字列で事前学習された化学情報学モデルで、主に分子表現学習と化学的性質予測に使用されます。
分子モデル Transformers
P
pchanda
509
1
Druggpt
Gpl-3.0
DrugGPTはGPT2アーキテクチャに基づく生成型医薬品設計モデルで、自然言語処理技術を用いて創薬に革新をもたらします。
分子モデル Transformers
D
liyuesen
495
21
Ppo CartPole V1
これはPPOアルゴリズムに基づく強化学習モデルで、CartPole-v1環境におけるバランス問題を解決するために特別に設計されています。
分子モデル
P
sb3
449
0
Molt5 Small
Apache-2.0
MOLT5-smallは、事前学習モデルに基づく分子と自然言語の変換モデルで、分子構造と自然言語の記述を相互に変換することができます。
分子モデル Transformers
M
laituan245
443
2
Chemgpt 1.2B
ChemGPTはGPT-Neoモデルを基にした生成型分子モデリングツールで、化学分野の分子生成と研究に特化しています。
分子モデル Transformers
C
ncfrey
409
14
Gpt2 Zinc 87m
MIT
GPT2スタイルの自己回帰型言語モデルで、薬類似分子の生成やSMILES文字列からの埋め込み表現生成に特化
分子モデル Transformers
G
entropy
404
3
Gena Lm Bert Large T2t
GENA-LMは長いDNA配列向けのオープンソース基礎モデルファミリーで、ヒトDNA配列で訓練されたTransformerマスク言語モデルです。
分子モデル Transformers その他
G
AIRI-Institute
386
7
Polync
Apache-2.0
PolyNCモデルは自然言語と化学言語を融合し、ポリマー性能の迅速かつ正確な予測を実現します。
分子モデル Transformers
P
hkqiu
383
3
Leandojo Lean4 Tacgen Byt5 Small
MIT
LeanDojo は、検索技術を強化した言語モデルに基づく定理証明システムで、言語モデルと検索技術を組み合わせることで自動定理証明の能力を向上させることを目的としています。
分子モデル Transformers
L
kaiyuy
369
13
Uni 3DAR
MIT
Uni-3DARは自己回帰モデルで、分子、タンパク質、結晶などの微細構造の生成と理解に焦点を当てた、さまざまな3Dタスクを統合しています。
分子モデル
U
dptech
359
2
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase