Chemberta Zinc Base V1
C
Chemberta Zinc Base V1
由seyonec開發
基於RoBERTa架構的Transformer模型,專為化學SMILES字符串的掩碼語言建模任務設計
下載量 323.83k
發布時間 : 3/2/2022
模型概述
該模型通過預訓練學習化學SMILES字符串的表示,能夠預測分子序列中的標記,並可用於分子性質預測和結構分析
模型特點
化學SMILES專用預訓練
在ZINC數據集上專門針對化學SMILES表示法進行預訓練
分子性質預測能力
學習到的表徵可用於預測毒性、溶解性、類藥性等分子性質
注意力可視化
提供注意力機制可視化工具,幫助識別影響化學性質的重要子結構
遷移學習基礎
可作為圖卷積和注意力模型的特徵提取器,或用於BERT微調
模型能力
化學SMILES序列預測
分子變體生成
分子性質預測
化學子結構識別
使用案例
藥物發現
分子性質優化
預測和優化候選藥物的溶解性、毒性等性質
化學教育
子結構識別教學
通過注意力可視化幫助學生理解影響化學性質的關鍵結構
材料設計
分子變體生成
在可探索的化學空間內預測分子的合理變體
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98