Atomgpt Mistral Tc Supercon
AtomGPTは、正方向および逆方向の材料設計に使用される原子レベルの生成型事前学習Transformerであり、特に超伝導体候補材料の原子構造の生成に焦点を当てています。
Downloads 221
Release Time : 8/8/2024
Model Overview
AtomGPTは、Transformerに基づく生成型事前学習モデルであり、原子レベルの材料設計に特化しており、超伝導体候補材料の原子構造を生成し、材料科学分野の発展を促進します。
Model Features
原子レベル材料設計
原子レベルの材料構造の生成に特化しており、特に超伝導体候補材料の設計に適しています。
正方向および逆方向の設計
正方向の材料設計と逆方向の材料設計の2つのモードをサポートします。
Transformerアーキテクチャに基づく
先進的なTransformerアーキテクチャを採用しており、良好な生成能力と拡張性を持っています。
微調整モデル
Mistral - 7Bモデルをベースに微調整され、材料科学分野に特化しています。
Model Capabilities
原子構造生成
材料設計
超伝導体候補材料予測
正方向材料設計
逆方向材料設計
Use Cases
材料科学
超伝導体材料の発見
潜在的な超伝導体候補材料の原子構造を生成する
新しい超伝導材料の発見プロセスを加速する
材料の逆設計
必要な材料性能に基づいて原子構造を逆設計する
特定の性能を持つ材料の迅速な開発を実現する
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98