MG-BERT: leveraging unsupervised atomic representation learning for molecular property prediction使用Atom2Vec了嘛
时间: 2023-06-14 15:05:52 浏览: 114
MG-BERT是一种基于BERT模型的分子属性预测模型,它利用无监督的原子表示学习技术,并从原子的上下文中学习原子嵌入。虽然Atom2Vec是一种常用的无监督学习方法,但MG-BERT并没有直接使用Atom2Vec。相反,它使用了一种名为Molecular Graph-BERT(MG-BERT)的模型,该模型使用BERT体系结构进行预训练,并使用无标签的分子数据进行训练。因此,MG-BERT的无监督原子表示学习方法与Atom2Vec有一些不同。
相关问题
MG-BERT: leveraging unsupervised atomic representation learning for molecular property prediction预训练策略
MG-BERT是一种用于分子属性预测的预训练模型,它是基于BERT的模型。它的预训练策略可以分为以下几步:
1. 原子嵌入:使用晶体学数据库(CSD)中的晶体结构数据,从中提取原子坐标并将其转换为原子嵌入表示。
2. 无监督原子表示学习:使用Transformer编码器,对原子嵌入进行无监督的原子表示学习。通过掩码语言建模任务(MLM)和下一句预测任务(NSP)来训练模型。
3. 有监督分子属性预测:使用已知的分子属性数据集,对MG-BERT进行有监督的微调。
在预训练阶段,MG-BERT使用了与BERT类似的预训练任务,例如掩码语言建模任务和下一句预测任务。这些任务的目的是让模型学习原子之间的关系和上下文信息。在微调阶段,MG-BERT使用已知的分子属性数据集进行有监督的微调,以预测分子的性质。
MG-BERT: leveraging unsupervised atomic representation learning for molecular property prediction的预训练任务有哪些
MG-BERT是一种基于BERT的预训练模型,用于分子性质预测。它的预训练任务主要包括:
1. 原子掩模预测(Atomic Masked Language Model,AMLM):在输入的分子中,随机选取一些原子进行掩模,然后训练模型预测这些掩模原子的标识符。
2. 原子邻接预测(Atomic Adjacency Prediction,AAP):对于输入的分子中的每个原子,模型预测其所有邻接原子的标识符。
3. 拆分分子预测(Molecule Splitting Prediction,MSP):将输入的分子随机拆分为两个子分子,然后训练模型预测这两个子分子的标识符。
4. 分子掩模预测(Molecule Masked Language Model,MMLM):在输入的分子中,随机选取一些分子片段进行掩模,然后训练模型预测这些掩模分子片段的标识符。
这些预训练任务旨在让模型学习分子结构和特征,以提高其性能在分子性质预测任务中的表现。
阅读全文