Esm1b T33 650M UR50S
E
Esm1b T33 650M UR50S
facebookによって開発
ESM-1bはTransformerベースのタンパク質言語モデルで、教師なし学習によりタンパク質配列データを学習し、タンパク質の構造や機能予測に利用できます。
ダウンロード数 24.20k
リリース時間 : 10/17/2022
モデル概要
ESM-1bはTransformerベースのタンパク質言語モデルで、ラベルなしのタンパク質配列データで訓練され、汎用的なタンパク質特徴を学習し下流の予測タスクに転移できます。
モデル特徴
教師なし事前学習
生のタンパク質配列のみを使用して訓練され、構造や機能ラベルは不要です。
汎用特徴学習
マスク言語モデリング目標を通じて汎用的なタンパク質特徴を学習し、様々な下流タスクに転移できます。
構造推論能力
モデルのアテンションヘッドはタンパク質3D構造の接触情報を直接反映できます。
機能影響予測
配列変異がタンパク質機能に与える影響をスコアリングできます。
モデル能力
タンパク質配列特徴抽出
タンパク質構造予測
タンパク質機能予測
配列変異影響スコアリング
遠縁相同性検出
二次構造予測
接触予測
使用事例
生物医学研究
タンパク質活性予測
ESM-1bの出力特徴に回帰モデルをフィッティングし、新規配列の活性を予測します。
変異機能影響分析
タンパク質配列変異が機能に与える影響を評価します。
関連タスクで先進的な結果を達成
タンパク質工学
タンパク質設計
モデルの予測を利用してタンパク質配列設計をガイドします。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98