今天我们会来聊聊现代神经网络中 必不可少的一个组成部分, 激励函数, activation function.非线性方程我们为什么要使用激励函数? 用简单的语句来概括....就是因为, 现实并没有我们想象的那么美好, 它是残酷多变的. 哈哈, 开个玩笑, 不过激励函数也就是为了解决我们日常生活中 不能用线性方程所概括的问题. 好了,我知道你的问题来了....激励函数¶图片这里的 AF 就是指的激励函数....因为时间的关系, 我们可能会在以后来具体谈谈这个问题.最后我们说说, 在具体的例子中, 我们默认首选的激励函数是哪些. 在少量层结构中, 我们可以尝试很多种不同的激励函数....在卷积神经网络 Convolutional neural networks 的卷积层中, 推荐的激励函数是 relu.