图 迭代步数随预设精度变化曲线
摘要:对偶神经网络的多重定积分计算方法相比于传统的数值积分方法,优势在于可以获得被积函数的原函数,但在实际训练过程中精度和效率仍无法达到预期。为此,本文拟通过构造对偶神经网络中新的激活函数对来解决此类问题,引入了sigmoid()/softplus()做为对偶神经网络新的激活函数对。通过算例仿真,相比于采用传统激活函数对的对偶神经网络,含有激活函数对sigmoid()/ softplus()的对偶神经网络精度更高、收敛速度更快。
关键词:对偶神经网络; 多重定积分; sigmoid()/softplus(); 激活函数对
作者:李海滨,李尚杰
领取专属 10元无门槛券
私享最新 技术干货