龙讯旷腾最新发布——机器学习平台
我们都知道从第一性原理出发的分子动力学(Ab Initio Molecular Dynamics, AIMD)计算,需要消耗大量时间和计算资源。但另一方面,体系中每个原子的能量,可通过考察其邻近原子的几何位置即组态(Configuration)近似得到。因此借助机器学习的方法,辅助已有的第一性原理计算结果,有望大幅加速分子动力学计算,提高在有限计算资源内可模拟的体系的大小以及模拟的时长。
目前使用机器学习进行材料研究有两种不同的方法
01
将其用作数据挖掘工具
寻找材料结构与体系属性之间的关系,该方法常用于大型数据库,根据数据库建立材料预测模型。
02
根据从头计算生成的数据建立一个机器学习平台
用于进行大规模和长时间的分子动力学或者动力学蒙特卡罗模拟。
机器学习已经成为材料研究的有力工具,龙讯团队推出的机器学习平台(PWmat-MLFF)属于上述第2种方法。用户可登录龙讯自有云平台Mcloud直接使用PWmat-MLFF,也可在自己的服务器或集群上安装。PWmat-MLFF使用了叠加Kalmann Filter的深度神经网络(deep NN)模型和DP-torch模型,该方法可以显著降低训练时间,同时也可以避免神经网络训练中常见的模型陷入局域最小值的问题。
网址
http://www.pwmat.com/mlff
PWmat-MLFF平台架构
•减少取样: Energy-Decomposition
•特征丰富: 2B/3B、Cos/Gaussian、MTP、SNAP
•模型齐全:Linear、VV、 NN、 DP
•加速训练:Kalman filter techniques
•可扩展性:Open source、user plug-in features
PWmat-MLFF
亮点1
对于扩展系统,PWmat-MLFF假设系统的总能量是系统中每个原子能量的总和。我们用不同的局域原子描述符(即所谓“特征”)来描述局部原子结构,以这些特征作为回归模型的输入,拟合原子能量。PWmat-MLFF支持的回归模型包括线性模型、VV模型(龙讯团队开发的一种独特的非线性模型)、深度神经网络(Deep NN)模型和DP-torch模型,同时也包含大部分的常用特征,用户可以任意地重新组合它们。
PWmat-MLFF
亮点2
PWmat-MLFF另一个独特功能是可以结合PWmat分子动力学计算中的能量分解功能,将局域的原子能量作为输入。由于局域原子能量可以直接作为数据输入回归模型,这可以显著减少训练所需的分子动力学步数,因此可以克服机器学习需要长时间预运算来产生训练数据这一困难。在PWmat- MLFF中,总能量、局域原子能量和原子受力均可以作为训练输入。与此同时,使用市面上常规第一性原理软件的用户也可以使用PWmat-MLFF进行训练,但将无法使用PWmat的能量分解功能。
PWmat-MLFF
亮点3
PWmat-MLFF是GNU License的开源平台,结构灵活,用户可以自由组合特征和训练模型,且可以根据自身需要开发新的特征以及训练模型。
PWmat-MLFF
亮点4
PWmat-MLFF 在训练过程中引入Kalman滤波器,加速训练过程。在DP-torch模型中,引入Kalman滤波器使得训练收敛的时间减少了一半。
8种特征和4种训练模型
8种特征
4种训练模型
应用场景
在许多特定的工业领域,PWmat-MLFF机器学习平台有望带来前所未有的改变。例如,对晶体结晶过程模拟的时长和体系规模,可以借助机器学习方法大幅提高,从而加深人们对结晶过程的认识;而机器学习也可以结合动能蒙特卡罗(Kinetic Monte Carlo),模拟各种表面生长过程;最后,机器学习也可应用于对电解液等溶剂体系的研究当中。
机器学习用于裂纹扩展研究
机器学习用于蒙特卡罗模拟薄膜生长过程
现以铜为例,简要展示上述模型的效果。在这一案例中,训练数据由1646个Image(即分子动力学中一步的位置、能量、速度和受力信息)组成,而测试(Test)数据则包含687个Image。两个数据集均由第一性原理计算得出,没有交集。上述两个数据集已随源代码一同打包。
案例展示
线性模型
通过训练得到的模型,进行推理(Inference),将其总能量、组能量、受力结果与测试数据比较,其结果如下:
非线性VV模型
推理后与验证数据比较得到的结果如下:
基于Kalman滤波器的深度神经网络(KFNN)
推理后与验证数据比较得到的结果如下:
基于Kalman滤波器的DP-torch模型(KFDP)
使用DP-torch模型,推理后与验证数据比较得到的结果如下:
使用叠加了Kalman Filter的DP-torch模型,推理后与验证数据比较得到的结果如下:
Copyright (c) 2020.北京龙讯旷腾科技有限公司 All rights reserved.京ICP备15057729号