Esm2 T36 3B UR50D
MIT
ESM-2はマスク言語モデリング目標で訓練された次世代タンパク質モデルで、タンパク質配列を入力とする様々な下流タスクのファインチューニングに適しています。
タンパク質モデル
Transformers

E
facebook
3.5M
22
Esm2 T6 8M UR50D
MIT
ESM-2はマスク言語モデリング目標でトレーニングされた次世代タンパク質モデルで、タンパク質配列の様々なタスクのファインチューニングに適しています。
タンパク質モデル
Transformers

E
facebook
1.5M
21
Esm2 T33 650M UR50D
MIT
ESM-2はマスク言語モデリング目標で訓練された最先端のタンパク質モデルで、タンパク質配列の分析と予測タスクに適しています
タンパク質モデル
Transformers

E
facebook
640.23k
41
Esm2 T12 35M UR50D
MIT
ESM-2はマスク言語モデリング目標で訓練された最先端のタンパク質モデルで、様々なタンパク質配列分析タスクに適用可能
タンパク質モデル
Transformers

E
facebook
332.83k
15
Prot Bert
BERTアーキテクチャに基づくタンパク質配列事前学習モデルで、自己教師付き学習によりタンパク質配列の生物物理学的特性を捉えます。
タンパク質モデル
Transformers

P
Rostlab
276.10k
111
Prostt5
MIT
ProstT5は、タンパク質配列と構造の間で翻訳を行うことができるタンパク質言語モデルです。
タンパク質モデル
Transformers

P
Rostlab
252.91k
23
Prot T5 Xl Uniref50
T5 - 3Bアーキテクチャに基づくタンパク質配列事前学習モデルで、自己教師付き学習によりタンパク質の生体物理的特性を捉えます。
タンパク質モデル
Transformers

P
Rostlab
78.45k
44
Esm2 T30 150M UR50D
MIT
ESM-2はマスク言語モデリング目標で訓練された最先端のタンパク質モデルで、タンパク質配列を入力とする様々なタスクの微調整に適しています。
タンパク質モデル
Transformers

E
facebook
69.91k
7
Prot Bert Bfd
Bertアーキテクチャに基づくタンパク質配列の事前学習モデルで、自己教師付き学習により21億のタンパク質配列から生物物理学的特徴を抽出します。
タンパク質モデル
Transformers

P
Rostlab
30.60k
16
Esm1b T33 650M UR50S
MIT
ESM-1bはTransformerベースのタンパク質言語モデルで、教師なし学習によりタンパク質配列データを学習し、タンパク質の構造や機能予測に利用できます。
タンパク質モデル
Transformers

E
facebook
24.20k
18
Rinalmo
RiNALMoはマスク言語モデリング(MLM)目標で事前学習された非コードRNA(ncRNA)モデルで、大量の非コードRNA配列上で自己教師あり方式で訓練されています。
タンパク質モデル その他
R
multimolecule
21.38k
2
Rna Torsionbert
その他
BERTアーキテクチャに基づくRNAねじれ角予測モデルで、RNA配列からねじれ角と疑似ねじれ角を予測する
タンパク質モデル
Transformers

R
sayby
20.86k
7
Esm2 T48 15B UR50D
MIT
ESM-2はマスク言語モデリング目標で訓練された最先端のタンパク質モデルで、タンパク質配列に対する様々なタスクのファインチューニングに適しています。
タンパク質モデル
Transformers

E
facebook
20.80k
20
Protgpt2
Apache-2.0
ProtGPT2はGPT2アーキテクチャに基づくタンパク質言語モデルで、新しいタンパク質配列を生成しながら天然タンパク質の重要な特徴を保持できます。
タンパク質モデル
Transformers

P
nferruz
17.99k
108
Helix Mrna
Helix-mRNAは、状態空間とトランスフォーマーアーキテクチャを組み合わせた混合モデルで、mRNA配列分析用に設計されています。
タンパク質モデル
Transformers その他

H
helical-ai
10.32k
10
Esmplusplus Large
ESM++はESMCの忠実な実装であり、バッチ処理操作をサポートし、Huggingfaceエコシステムと完全互換で、ESM公式Pythonパッケージに依存する必要はありません。largeバージョンはESMCの6億パラメーターモデルに対応しています。
タンパク質モデル
Transformers

E
Synthyra
8,314
9
DRP
MIT
DRPはロボット運動計画に特化したモデルで、5Mチェックポイントで7kサイクル(約7Mステップ)のトレーニングを実施
タンパク質モデル 英語
D
jimyoung6709
7,980
1
Rnafm
非コードRNAデータに基づき、マスク言語モデリング(MLM)目標で事前学習されたRNA基礎モデル
タンパク質モデル その他
R
multimolecule
6,791
1
Esmplusplus Small
ESM++はESMCの忠実な実装であり、バッチ処理をサポートし、標準のHuggingfaceインターフェースと互換性があり、ESM Pythonパッケージに依存しません。小型バージョンはESMCの3億パラメータバージョンに対応します。
タンパク質モデル
Transformers

E
Synthyra
6,460
14
Saprot 650M AF2
MIT
SaProtはタンパク質配列と構造情報に基づく事前学習モデルで、特に低pLDDT領域に対して最適化されています。
タンパク質モデル
Transformers

S
westlake-repl
5,630
14
Protein Matryoshka Embeddings
CC
このモデルはタンパク質配列の埋め込みベクトルを生成し、検索タスクを高速化するための短縮版埋め込みをサポートします。
タンパク質モデル
Transformers

P
monsoon-nlp
2,121
7
Distilprotbert
MIT
ProtBert-UniRef100モデルの蒸留版、タンパク質特徴抽出と下流タスクのファインチューニング用
タンパク質モデル
Transformers

D
yarongef
1,965
9
Bert Protein Classifier
このモデルはBert-Base-Uncasedを微調整して、タンパク質のアミノ酸配列に基づいてその機能を予測するマルチラベル分類タスクに使用されます。
タンパク質モデル
Transformers

B
oohtmeel
1,772
1
Generator Eukaryote 3b Base
MIT
GENERatorは9.8万塩基対のコンテキスト長と30億パラメータを持つ生成型ゲノム基礎モデルで、真核生物DNA拡張データセットで訓練されています
タンパク質モデル
Transformers

G
GenerTeam
1,599
5
Codontransformer
Apache-2.0
コドン最適化の究極ツールで、タンパク質配列を対象生物種に最適化されたDNA配列に変換できます。
タンパク質モデル
Transformers

C
adibvafa
1,327
7
Prot T5 Base Mt Uniref50
このモデルは、与えられたアミノ酸配列のタンパク質質量分析データを予測するために使用されます。
タンパク質モデル
P
Rostlab
671
0
Prollama Stage 1
Apache-2.0
ProLLaMAはLlama-2-7bアーキテクチャに基づくタンパク質大規模言語モデルで、マルチタスクタンパク質言語処理に特化しています。
タンパク質モデル
Transformers

P
GreatCaptainNemo
650
2
Prot T5 Xl Bfd
ProtT5-XL-BFDはタンパク質配列に基づく自己教師付き事前学習モデルで、T5アーキテクチャを採用し、21億のタンパク質配列で学習され、タンパク質特徴抽出と下流タスクの微調整に使用されます。
タンパク質モデル
Transformers

P
Rostlab
605
10
Gobert
MIT
GoBERTは、一般的な遺伝子機能予測に特化したモデルで、遺伝子本体グラフ情報を利用して、遺伝子本体(GO)機能間の関係を効果的に捉えることができます。
タンパク質モデル
Safetensors
G
MM-YY-WW
479
1
Gpn Msa Sapiens
MIT
GPN-MSAはヒトおよび他の89種の脊椎動物で訓練された言語モデルで、DNA配列解析と変異効果予測に特化しています。
タンパク質モデル
Transformers その他

G
songlab
446
8
Pepmlm 650M
標的タンパク質配列のみに依存する線形ペプチド結合剤のデノボ生成器として初めて
タンパク質モデル
Transformers

P
ChatterjeeLab
396
19
Prollama
Apache-2.0
ProLLaMAはLlama-2-7bを基盤に構築されたタンパク質大規模言語モデルで、マルチタスクタンパク質言語処理に特化し、タンパク質配列生成とスーパーファミリー判定タスクを実行可能です。
タンパク質モデル
Transformers

P
GreatCaptainNemo
366
16
HIV V3 Bodysite
HIV-BERTを最適化したモデルで、HIV V3ループサンプルの採取部位を予測し、精度が元のモデルより大幅に向上
タンパク質モデル
Transformers

H
damlab
257
0
ESM2 35M Protein Molecular Function
進化尺度モデル(ESM)に基づくタンパク質機能予測ツールで、アミノ酸配列を通じてタンパク質の分子機能を予測します。
タンパク質モデル
Transformers

E
andrewdalpino
254
1
ESM2 150M Protein Molecular Function
遺伝子本体論(GO)とESM2アーキテクチャに基づくタンパク質分子機能予測モデル
タンパク質モデル
Transformers

E
andrewdalpino
175
1
Protst Esm1b
ProtSTフレームワークは、生物医学テキストを用いてタンパク質配列の事前学習と理解を強化し、ProtDescribeデータセットを構築し、3種類の事前学習タスクを設計し、教師あり学習とゼロショット予測をサポートします。
タンパク質モデル
Transformers

P
mila-intel
173
1
Isoformer
Isoformerは、差異トランスクリプトーム発現を正確に予測できるモデルで、既存の手法を上回る性能を発揮し、マルチモーダルデータを最大限に活用しています。
タンパク質モデル
Transformers

I
InstaDeepAI
165
3
Protgpt2 Distilled Tiny
Apache-2.0
ProtGPT2の蒸留バージョン、知識蒸留手法によりより効率的な小型モデルに圧縮、性能を維持しながら推論速度を向上
タンパク質モデル
Transformers

P
littleworth
157
4
Ablang Heavy
AbLangは抗体配列、特に重鎖配列を処理するために特別に設計された抗体言語モデルです。このモデルは大文字のアミノ酸文字で訓練されており、タンパク質特徴抽出や下流タスクの微調整に適しています。
タンパク質モデル
Transformers

A
qilowoq
131
6
Ankh3 Xl
Ankh3はT5アーキテクチャに基づくタンパク質言語モデルで、マスク言語モデリングと配列補完タスクを連合最適化することで事前学習され、タンパク質の特徴抽出と配列分析に適しています。
タンパク質モデル
Transformers

A
ElnaggarLab
131
2
Nanobert
nanoBERTは、特定のクエリ配列内のアミノ酸位置を予測するためのナノ抗体特異的トランスフォーマーです。
タンパク質モデル
Transformers

N
NaturalAntibody
117
4
Segment Nt Multi Species
SegmentNT-multi-speciesは、Nucleotide Transformerに基づくセグメンテーションモデルで、単一ヌクレオチド解像度で複数のゲノム要素の位置を予測します。
タンパク質モデル
Transformers

S
InstaDeepAI
102
1
- 1
- 2