我有一个用有限元离散化计算的成本函数和它的梯度(积分点处的值),我有一个文本文件中的数据。问题是成本函数及其梯度在数学上不是显式的,使用有限元方法在体积V中的某些点xi使用有限元方法在每个时间t的增量处进行数值计算。函数及其渐变的结果存储在文本文件中。如何最小化这个函数?有什么想法吗?
谢谢你的帮忙
发布于 2021-03-10 14:18:02
我不认为你能做你想做的事。如果你的有限元模拟已经完成,那么你唯一能做的就是为你的结果创建一个代理模型作为你的参数的函数。一种可能性是通过对结果进行插值(例如使用SciPy griddata https://docs.scipy.org/doc/scipy/reference/generated/scipy.interpolate.griddata.html)对结果进行建模,并将其用作代理模型。
然后你选择你最喜欢的优化算法,指定你的参数(这些参数必须是网格数据插值的一部分),你就可以开始工作了。根据你做了多少有限元模拟,你可能会得到非常糟糕/无意义的结果(如果你的有限元模拟太少)或非常好的结果(如果你的有限元模拟几乎覆盖了整个优化空间)。
https://stackoverflow.com/questions/66544855
复制相似问题