# バイオインフォマティクス

Gobert
MIT
GoBERTは、一般的な遺伝子機能予測に特化したモデルで、遺伝子本体グラフ情報を利用して、遺伝子本体(GO)機能間の関係を効果的に捉えることができます。
タンパク質モデル Safetensors
G
MM-YY-WW
479
1
Rnabert
RNABERTは非コードRNA(ncRNA)に基づく事前学習モデルで、マスク言語モデリング(MLM)と構造アライメント学習(SAL)の目標を採用しています。
分子モデル その他
R
multimolecule
8,166
4
Rinalmo
RiNALMoはマスク言語モデリング(MLM)目標で事前学習された非コードRNA(ncRNA)モデルで、大量の非コードRNA配列上で自己教師あり方式で訓練されています。
タンパク質モデル その他
R
multimolecule
21.38k
2
Birna Bert
BERTアーキテクチャに基づくTransformerエンコーダモデルで、RNAシーケンス埋め込み生成専用に設計
テキスト埋め込み Transformers
B
buetnlpbio
364
1
Bert Protein Classifier
このモデルはBert-Base-Uncasedを微調整して、タンパク質のアミノ酸配列に基づいてその機能を予測するマルチラベル分類タスクに使用されます。
タンパク質モデル Transformers
B
oohtmeel
1,772
1
Progen2 Small
Bsd-3-clause
ProGen2-smallはNijkampらの研究に基づくタンパク質生成モデルで、軽微な設定調整とフォワードプロパゲーション処理を施したミラー版です。
大規模言語モデル Transformers
P
hugohrban
6,505
2
Protein Matryoshka Embeddings
CC
このモデルはタンパク質配列の埋め込みベクトルを生成し、検索タスクを高速化するための短縮版埋め込みをサポートします。
タンパク質モデル Transformers
P
monsoon-nlp
2,121
7
Esm2 T6 8M UR50D Sequence Classifier V1
ESM-2タンパク質言語モデルに基づく配列分類器で、タンパク質配列のゼロショット分類タスクに使用されます。
テキスト分類 Transformers
E
Xenova
25
0
Nucleotide Transformer V2 50m Multi Species
ヌクレオチドトランスフォーマーは、全ゲノムDNA配列を用いて事前学習された一連の基礎言語モデルで、3200以上のヒトゲノムと850種類の広範な生物種のゲノムデータを統合しています。
分子モデル Transformers
N
InstaDeepAI
18.72k
3
Esm1b T33 650M UR50S
MIT
ESM-1bはTransformerベースのタンパク質言語モデルで、教師なし学習によりタンパク質配列データを学習し、タンパク質の構造や機能予測に利用できます。
タンパク質モデル Transformers
E
facebook
24.20k
18
Esm2 T33 650M UR50D
MIT
ESM-2はマスク言語モデリング目標で訓練された最先端のタンパク質モデルで、タンパク質配列の分析と予測タスクに適しています
タンパク質モデル Transformers
E
facebook
640.23k
41
Tcr Bert Mlm Only
TCR-BERTはBERTアーキテクチャに基づく事前学習モデルで、T細胞受容体(TCR)配列に特化して最適化されており、マスクアミノ酸モデリングタスクを通じて訓練されています。
タンパク質モデル Transformers
T
wukevin
27
4
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase