Materials.selfies Ted
M
Materials.selfies Ted
ibm-researchによって開発
Transformerアーキテクチャに基づくエンコーダ-デコーダモデルで、SELFIESを用いた分子特性評価のために設計
ダウンロード数 3,343
リリース時間 : 10/25/2024
モデル概要
このモデルはTransformerアーキテクチャを使用してSELFIES形式の分子表現を処理し、SMILES文字列をSELFIES形式に変換して分子埋め込みベクトルを生成できます。化学および材料科学分野の分子特性評価タスクに適しています。
モデル特徴
SELFIES分子表現
SELFIES(Self-referencing Embedded Strings)形式を使用した分子特性評価で、従来のSMILES形式に比べてより強力なロバスト性を備えています
Transformerアーキテクチャ
先進的なTransformerアーキテクチャに基づいており、分子構造中の複雑なパターンと関係を効果的に捉えることができます
分子埋め込み生成
分子構造を意味のある埋め込みベクトルに変換でき、下流の機械学習タスクに使用できます
モデル能力
SMILESからSELFIES変換
分子特徴抽出
分子埋め込み生成
使用事例
ケモインフォマティクス
分子類似性分析
分子埋め込みベクトルを比較して分子構造の類似性を評価
創薬におけるリード化合物スクリーニングに使用可能
分子特性予測
分子埋め込みを機械学習モデルの入力特徴として使用
分子特性予測モデルの精度向上
材料科学
新素材発見
分子特性評価に基づく材料設計とスクリーニング
新機能材料の開発プロセス加速
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98