我一直很好奇TF是否可以用于函数的全局优化。例如,它能被用来有效地找到Lennard-Jones势的基态吗?它会比现有的优化方法更好还是更差,比如盆地跳跃?
我的部分研究涉及寻找大的,多组分的分子的基态。传统方法(BH等)对此很好,但也相当慢。我已经研究了TF,有一些部分似乎足够强大,可以应用于这个问题,尽管我有限的网络搜索似乎没有显示出TF对这个问题的任何使用。
发布于 2018-05-31 02:08:29
用来训练神经网络的gradient descent只考虑了函数的局部区域。因此,不能保证它会收敛到全局最小值(这对于大多数机器学习算法来说实际上是很好的;考虑到所考虑的空间的维数非常高,人们通常很乐意找到一个良好的局部最小值,而不必进行太多探索)。
也就是说,人们当然可以使用Tensorflow (或任何这样的框架)来实现全局盆地跳跃方案的局部优化器,例如如下所示(简化算法):
实际上,有些人目前正在尝试实现这个确切的方案,将TF与scipy.optimize.basinhopping()
接口。在这个Github issue中可以找到当前的开发和讨论。
https://stackoverflow.com/questions/47131248
复制相似问题