专栏首页SeanCheney的专栏《机器学习实战:基于Scikit-Learn、Keras和TensorFlow》第10章 使用Keras搭建人工神经网络

《机器学习实战:基于Scikit-Learn、Keras和TensorFlow》第10章 使用Keras搭建人工神经网络

Aurélien 在写第二版时,对下半部分深度学习各章节的修订非常非常大(前面机器学习的部分更改只有10%,只是新加了一个第9章),所以还是先看变动大的深度学习部分吧。看了第10章,真是比第一版强太多了,讲的特别细,特别有耐心。

下载本书代码和电子书:https://www.jianshu.com/p/4a94798f7dcc


第10章 使用Keras搭建人工神经网络


鸟类启发人类飞翔,东洋参启发了魔术贴的发明,大自然启发人类实现了无数发明创造。通过研究大脑来制造智能机器,也符合这个逻辑。人工神经网络(ANN)就是沿着这条逻辑诞生的:人工神经网络是受大脑中的生物神经元启发而来的机器学习模型。但是,虽然飞机是受鸟儿启发而来的,飞机却不用挥动翅膀。相似的,人工神经网络和生物神经元网络也是具有不同点的。一些研究者甚至认为,应该彻底摒弃这种生物学类比:例如,用“单元”取代“神经元”,以免人们将创造力局限于生物学系统的合理性上。

人工神经网络是深度学习的核心,它不仅样式多样、功能强大,还具有可伸缩性,这让人工神经网络适宜处理庞大且复杂的机器学习任务,例如对数十亿张图片分类(谷歌图片)、语音识别(苹果Siri)、向数亿用户每天推荐视频(Youtube)、或者通过学习几百围棋世界冠军(DeepMind的AlphaGo)。

本章的第一部分会介绍人工神经网络,从一个简单的ANN架构开始,然后过渡到多层感知机(MLP),后者的应用非常广泛(后面的章节会介绍其他的架构)。第二部分会介绍如何使用流行的Keras API搭建神经网络,Keras API是一个设计优美、简单易用的高级API,可以用来搭建、训练、评估、运行神经网络。Keras的易用性,并不妨碍它具有强大的实现能力,Keras足以帮你搭建多种多样的神经网络。事实上,Keras足以完成大多数的任务啦!要是你需要实现更多的功能,你可以用Keras的低级API(第12章介绍)自己写一些组件。

从生物神经元到人工神经元

颇让人惊讶的地方是,其实ANN已经诞生相当长时间了:神经生理学家Warren McCulloch和数学家Walter Pitts在1943年首次提出了ANN。在他们里程碑的论文《A Logical Calculus of Ideas Immanent in Nervous Activity》中(https://scholar.google.com/scholar?q=A+Logical+Calculus+of+Ideas+Immanent+in+Nervous+Activity+author%3Amcculloch),McCulloch 和 Pitts介绍一个简单的计算模型,关于生物大脑的神经元是如何通过命题逻辑协同工作的。这是第一个ANN架构,后来才出现更多的ANN架构。

ANN的早期成功让人们广泛相信,人类马上就能造出真正的智能机器了。1960年代,当这个想法落空时,资助神经网络的钱锐减,ANN进入了寒冬。1980年代早期,诞生了新的神经网络架构和新的训练方法,连结主义(研究神经网络)复苏,但是进展很慢。到了1990年代,出现了一批强大的机器学习方法,比如支持向量机(见第05章)。这些新方法的结果更优,也比ANN具有更扎实的理论基础,神经网络研究又一次进入寒冬。我们正在经历的是第三次神经网络浪潮。这波浪潮会像前两次那样吗?这次与前两次有所不同,这一次会对我们的生活产生更大的影响,理由如下:

  • 我们现在有更多的数据,用于训练神经网络,在大而复杂的问题上,ANN比其它ML技术表现更好;
  • 自从1990年代,计算能力突飞猛进,现在已经可以在理想的时间内训练出大规模的神经网络了。一部分原因是摩尔定律(在过去50年间,集成电路中的组件数每两年就翻了一倍),另外要归功于游戏产业,后者生产出了强大的GPU显卡。还有,云平台使得任何人都能使用这些计算能力;
  • 训练算法得到了提升。虽然相比1990年代,算法变化不大,但这一点改进却产生了非常大的影响;
  • 在实践中,人工神经网络的一些理论局限没有那么强。例如,许多人认为人工神经网络训练算法效果一般,因为它们很可能陷入局部最优,但事实证明,这在实践中是相当罕见的(或者如果它发生,它们也通常相当接近全局最优);
  • ANN已经进入了资助和进步的良性循环。基于ANN的惊艳产品常常上头条,从而吸引了越来越多的关注和资金,促进越来越多的进步和更惊艳的产品。

生物神经元

在讨论人工神经元之前,先来看看生物神经元(见图10-1)。这是动物大脑中一种不太常见的细胞,包括:细胞体(含有细胞核和大部分细胞组织),许多貌似树枝的树突,和一条非常长的轴突。轴突的长度可能是细胞体的几倍,也可能是一万倍。在轴突的末梢,轴突分叉成为终树突,终树突的末梢是突触,突触连接着其它神经元的树突或细胞体。

生物神经元会产生被称为“动作电位”(或称为信号)的短促电脉冲,信号沿轴突传递,使突触释放出被称为神经递质的化学信号。当神经元在几毫秒内接收了足够量的神经递质,这个神经元也会发送电脉冲(事实上,要取决于神经递质,一些神经递质会禁止发送电脉冲)。

图10-1 生物神经元

独立的生物神经元就是这样工作的,但因为神经元是处于数十亿神经元的网络中的,每个神经元都连着几千个神经元。简单神经元的网络可以完成高度复杂的计算,就好像蚂蚁齐心协力就能建成复杂的蚁冢一样。生物神经网络(BNN)如今仍是活跃的研究领域,人们通过绘制出了部分大脑的结构,发现神经元分布在连续的皮层上,尤其是在大脑皮质上(大脑外层),见图10-2。

图10-2 人类大脑皮质的多层神经元网络

神经元的逻辑计算

McCulloch和Pitts提出了一个非常简单的生物神经元模型,它后来演化成了人工神经元:一个或多个二元(开或关)输入,一个二元输出。当达到一定的输入量时,神经元就会产生输出。在论文中,两位作者证明就算用如此简单的模型,就可以搭建一个可以完成任何逻辑命题计算的神经网络。为了展示网络是如何运行的,我们自己亲手搭建一些不同逻辑计算的ANN(见图10-3),假设有两个活跃的输入时,神经元就被激活。

图10-3 不同逻辑计算的ANN

这些网络的逻辑计算如下:

  • 左边第一个网络是确认函数:如果神经元 A 被激活,那么神经元 C 也被激活(因为它接收来自神经元 A 的两个输入信号),但是如果神经元 A 关闭,那么神经元 C 也关闭。
  • 第二个网络执行逻辑 AND:神经元 C 只有在激活神经元 A 和 B(单个输入信号不足以激活神经元 C)时才被激活。
  • 第三个网络执行逻辑 OR:如果神经元 A 或神经元 B 被激活(或两者),神经元 C 被激活。
  • 最后,如果我们假设输入连接可以抑制神经元的活动(生物神经元是这样的情况),那么第四个网络计算一个稍微复杂的逻辑命题:如果神经元 B 关闭,只有当神经元A是激活的,神经元 C 才被激活。如果神经元 A 始终是激活的,那么你得到一个逻辑 NOT:神经元 C 在神经元 B 关闭时是激活的,反之亦然。

你可以很容易地想到,如何将这些网络组合起来计算复杂的逻辑表达式(参见本章末尾的练习)。

感知机

感知器是最简单的人工神经网络结构之一,由 Frank Rosenblatt 发明于 1957年。它基于一种稍微不同的人工神经元(见图 10-4),阈值逻辑单元(TLU),或称为线性阈值单元(LTU):输入和输出是数字(而不是二元开/关值),并且每个输入连接都一个权重。TLU计算其输入的加权和(z = W1x1 + W2x2 + ... + Wnxn = xT·W),然后将阶跃函数应用于该和,并输出结果:hW(x) = step(z),其中z = xT·W。

图10-4 阈值逻辑单元:人工神经元做权重求和,然后对和做阶跃函数

感知机最常用的阶跃函数是单位阶跃函数(Heaviside step function),见公式10-1。有时候也使用符号函数sgn。

公式10-1 感知机常用的阶跃函数,阈值为0

单一TLU 可用于简单的线性二元分类。它计算输入的线性组合,如果结果超过阈值,它输出正类或者输出负类(就像逻辑回归分类或线性SVM分类)。例如,你可以使用单一 TLU,基于花瓣长度和宽度分类鸢尾花(也可添加额外的偏置特征x0=1,就像我们在前面章节所做的那样)。训练 TLU 意味着去寻找合适的W0、W1和W2值(训练算法稍后提到)。

感知器只由一层 TLU 组成,每个TLU连接到所有输入。当一层的神经元连接着前一层的每个神经元时,该层被称为全连接层,或紧密层。感知机的输入来自输入神经元,输入神经元只输出从输入层接收的任何输入。所有的输入神经元位于输入层。此外,通常再添加一个偏置特征(X0=1):这种偏置特性通常用一种称为偏置神经元的特殊类型的神经元来表示,它总是输出 1。图10-5展示了一个具有两个输入和三个输出的感知机,它可以将实例同时分成为三个不同的二元类,这使它成为一个多输出分类器。。

图10-5 一个具有两个输入神经元、一个偏置神经元和三个输出神经元的感知机架构

借助线性代数,利用公式10-2可以方便地同时算出几个实例的一层神经网络的输出。

公式10-2 计算一个全连接层的输出

在这个公式中,

  • X表示输入特征矩阵,每行是一个实例,每列是一个特征;
  • 权重矩阵W包含所有的连接权重,除了偏置神经元。每有一个输入神经元权重矩阵就有一行,神经层每有一个神经元权重矩阵就有一列;
  • 偏置矢量b含有所有偏置神经元和人工神经元的连接权重。每有一个人工神经元就对应一个偏置项;
  • 函数

被称为激活函数,当人工神经网络是TLU时,激活函数是阶跃函数(后面会讨论更多的激活函数)。

那么感知器是如何训练的呢?Frank Rosenblatt 提出的感知器训练算法在很大程度上受到 Hebb 规则的启发。在 1949 出版的《行为组织》一书中,Donald Hebb 提出,当一个生物神经元经常触发另一个神经元时,这两个神经元之间的联系就会变得更强。这个想法后来被 Siegrid Löwel 总结为一经典短语:“一起燃烧的细胞,汇合在一起。”这个规则后来被称为 Hebb 规则(或 Hebbian learning)。使用这个规则的变体来训练感知器,该规则考虑了网络所犯的误差。更具体地,感知器一次被馈送一个训练实例,对于每个实例,它进行预测。对于每一个产生错误预测的输出神经元,修正输入的连接权重,以获得正确的预测。公式 10-3 展示了Hebb 规则。

公式10-3 感知机的学习规则(权重更新)

在这个公式中:

  • 其中wi,j是第i个输入神经元与第j个输出神经元之间的连接权重;
  • xi是当前训练实例的第i个输入值;

j是当前训练实例的第j个输出神经元的输出;

  • yj是当前训练实例的第j个输出神经元的目标输出;
  • η是学习率。

每个输出神经元的决策边界是线性的,因此感知器不能学习复杂的模式(比如 Logistic 回归分类器)。然而,如果训练实例是线性可分的,Rosenblatt 证明该算法将收敛到一个解。这被称为感知器收敛定理。

Sscikit-Llearn 提供了一个Perceptron类,它实现了一个 单TLU 网络。它可以实现大部分功能,例如用于 iris 数据集(第4章中介绍过):

import numpy as np
from sklearn.datasets import load_iris
from sklearn.linear_model import Perceptron

iris = load_iris()
X = iris.data[:, (2, 3)]  # petal length, petal width
y = (iris.target == 0).astype(np.int)  # Iris setosa?

per_clf = Perceptron()
per_clf.fit(X, y)

y_pred = per_clf.predict([[2, 0.5]])

你可能注意到,感知器学习算法和随机梯度下降很像。事实上,sklearn 的Perceptron类相当于使用具有以下超参数的 SGDClassifierloss="perceptron"learning_rate="constant"eta0=1(学习率),penalty=None(无正则化)。

与逻辑回归分类器相反,感知机不输出类概率,而是基于硬阈值进行预测。这是逻辑回归优于感知机的一点。

在1969 年题为“感知机”的专著中,Marvin Minsky 和 Seymour Papert 强调了感知器的许多严重缺陷,特别是它们不能解决一些琐碎的问题(例如,异或(XOR)分类问题);参见图 10-6 的左侧)。当然,其他的线性分类模型(如 Logistic 回归分类器)也都实现不了,但研究人员期望从感知器中得到更多,他们的失望是很大的,导致许多人彻底放弃了神经网络,而是转向高层次的问题,如逻辑、问题解决和搜索。

然而,事实证明,感知机的一些局限性可以通过堆叠多个感知机消除。由此产生的人工神经网络被称为多层感知机(MLP)。特别地,MLP 可以解决 XOR 问题,你可以通过计算图 10-6 右侧所示的 MLP 的输出来验证输入的每一个组合:输入(0, 0)或(1, 1)网络输出 0,输入(0, 1)或(1, 0)它输出 1。除了四个连接的权重不是1,其它连接都是1。

图10-6 XOR分类问题和MLP

多层感知机与反向传播

MLP 由一个输入层、一个或多个称为隐藏层的 TLU 组成,一个 TLU 层称为输出层(见图 10-7)。靠近输入层的层,通常被称为浅层,靠近输出层的层通常被称为上层。除了输出层,每一层都有一个偏置神经元,并且全连接到下一层。

图10-7 多层感知器

注意:信号是从输入到输出单向流动的,因此这种架构被称为前馈神经网络(FNN)。

当人工神经网络有多个隐含层时,称为深度神经网络(DNN)。深度学习研究的是DNN和深层计算模型。但是大多数人用深度学习泛化代替神经网络,即便网络很浅时。

多年来,研究人员努力寻找一种训练 MLP 的方法,但没有成功。但在 1986,David Rumelhart、Geoffrey Hinton、Ronald Williams 发表了一篇突破性的论文(https://scholar.google.com/scholar?q=Learning+Internal+Representations+by+Error+Propagation+author%3Arumelhart),提出了至今仍在使用的反向传播训练算法。总而言之,反向传播算法是使用了高效梯度计算的梯度下降算法(见第4章):只需要两次网络传播(一次向前,一次向后),就可以算出网络误差的、和每个独立模型参数相关的梯度。换句话说,反向传播算法为了减小误差,可以算出每个连接权重和每个偏置项的调整量。当得到梯度之后,就做一次常规的梯度下降,不断重复这个过程,直到网络得到收敛解。

笔记:自动计算梯度被称为自动微分。有多种自动微分的方法,各有优缺点。反向传播使用的是反向模式自微分。这种方法快而准,当函数有多个变量(连接权重)和多个输出(损失函数)要微分时也能应对。附录D介绍了自微分。

对BP做详细分解:

  • 每次处理一个微批次(假如每个批次包含32个实例),用训练集多次训练BP,每次被称为一个周期(epoch);
  • 每个微批次先进入输入层,输入层再将其发到第一个隐藏层。计算得到该层所有神经元的(微批次的每个实例的)输出。输出接着传到下一层,直到得到输出层的输出。这个过程就是前向传播:就像做预测一样,只是保存了每个中间结果,中间结果要用于反向传播;
  • 然后计算输出误差(使用损失函数比较目标值和实际输出值,然后返回误差);
  • 接着,计算每个输出连接对误差的贡献量。这是通过链式法则(就是对多个变量做微分的方法)实现的;
  • 然后还是使用链式法则,计算最后一个隐藏层的每个连接对误差的贡献,这个过程不断向后传播,直到到达输入层。
  • 最后,BP算法做一次梯度下降步骤,用刚刚计算的误差梯度调整所有连接权重。

BP算法十分重要,再归纳一下:对每个训练实例,BP算法先做一次预测(前向传播),然后计算误差,然后反向通过每一层以测量误差贡献量(反向传播),最后调整所有连接权重以降低误差(梯度下降)。(译者注:我也总结下吧,每次训练都先是要设置周期epoch数,每次epoch其实做的就是三件事,向前传一次,向后传一次,然后调整参数,接着再进行下一次epoch。)

警告:随机初始化隐藏层的连接权重是很重要的。假如所有的权重和偏置都初始化为0,则在给定一层的所有神经元都是一样的,BP算法对这些神经元的调整也会是一样的。换句话,就算每层有几百个神经元,模型的整体表现就像每层只有一个神经元一样,模型会显得笨笨的。如果权重是随机初始化的,就可以打破对称性,训练出不同的神经元。

为了使BP算法正常工作,作者对 MLP 的架构做了一个关键调整:用Logistic函数(sigmoid)代替阶跃函数,σ(z) = 1 / (1 + exp(–z))。这是必要的,因为阶跃函数只包含平坦的段,因此没有梯度(梯度下降不能在平面上移动),而 Logistic函数处处都有一个定义良好的非零导数,允许梯度下降在每步上取得一些进展。反向传播算法也可以与其他激活函数一起使用,下面就是两个流行的激活函数:

  • 双曲正切函数: tanh (z) = 2σ(2z) – 1

类似 Logistic 函数,它是 S 形、连续可微的,但是它的输出值范围从-1到1(不是 Logistic 函数的 0 到 1),这往往使每层的输出在训练开始时或多或少都变得以 0 为中心,这常常有助于加快收敛速度。

  • ReLU 函数:ReLU(z) = max(0, z)

ReLU 函数是连续的,但是在z=0时不可微(斜率突然改变,导致梯度下降在0点左右跳跃),ReLU的变体是当z<0时,z=0。但在实践中,ReLU效果很好,并且具有计算快速的优点,于是成为了默认激活函数。最重要的是,它没有最大输出值,这有助于减少梯度下降期间的一些问题(第 11 章再介绍)。

这些流行的激活函数及其变体如图 10-8 所示。但是,究竟为什么需要激活函数呢?如果将几个线性变化链式组合起来,得到的还是线性变换。比如,对于 f(x) = 2x + 3g(x) = 5x – 1 ,两者组合起来仍是线性变换:f(g(x)) = 2(5x – 1) + 3 = 10x + 1。如果层之间不具有非线性,则深层网络和单层网络其实是等同的,这样就不能解决复杂问题。相反的,足够深且有非线性激活函数的DNN,在理论上可以近似于任意连续函数。

图10-8 激活函数及其变体

知道了神经网络的起源、架构、计算方法、BP算法,接下来看应用。

回归MLP

首先,MLP可以用来回归任务。如果想要预测一个单值(例如根据许多特征预测房价),就只需要一个输出神经元,它的输出值就是预测值。对于多变量回归(即一次预测多个值),则每一维度都要有一个神经元。例如,想要定位一张图片的中心,就要预测2D坐标,因此需要两个输出神经元。如果再给对象加个边框,还需要两个值:对象的宽度和高度。

通常,当用MLP做回归时,输出神经元不需要任何激活函数。如果要让输出是正值,则可在输出值使用ReLU激活函数。另外,还可以使用softplus激活函数,这是ReLu的一个平滑化变体:softplus(z) = log(1 + exp(z))。z是负值时,softplus接近0,z是正值时,softplus接近z。最后,如果想让输出落入一定范围内,则可以使用调整过的Logistic或双曲正切函数:Logistic函数用于0到1,双曲正切函数用于-1到1。

训练中的损失函数一般是均方误差,但如果训练集有许多异常值,则可以使用平均绝对误差。另外,也可以使用Huber损失函数,它是前两者的组合。

提示:当误差小于阈值δ时(一般为1),Huber损失函数是二次的;误差大于阈值时,Huber损失函数是线性的。相比均方误差,线性部分可以让Huber对异常值不那么敏感,二次部分可以让收敛更快,也比均绝对误差更精确。

表10-1 总结了回归MLP的典型架构。

表10-1 回归MLP的典型架构

分类MLP

MLP也可用于分类,对于二元分类问题,只需要一个使用Logistic激活的输出神经元:输出是一个0和1之间的值,作为正类的估计概率。

MLP也可以处理多标签二元分类(见第3章)。例如,邮件分类系统可以预测一封邮件是垃圾邮件,还是正常邮件,同时预测是紧急,还是非紧急邮件。这时,就需要两个输出神经元,两个都是用Logistic函数:第一个输出垃圾邮件的概率,第二个输出紧急的概率。更为一般的讲,需要为每个正类配一个输出神经元。多个输出概率的和不一定非要等于1。这样模型就可以输出各种标签的组合:非紧急非垃圾邮件、紧急非垃圾邮件、非紧急垃圾邮件、紧急垃圾邮件。

如果每个实例只能属于一个类,但可能是三个或多个类中的一个(比如对于数字图片分类,可以使class 0到class 9),则每一类都要有一个输出神经元,整个输出层(见图10-9)要使用softmax激活函数。softmax函数可以保证,每个估计概率位于0和1之间,并且各个值相加等于1。这被称为多类分类。

图10-9 一个用于分类的MLP(包括ReLU和softmax)

根据损失函数,因为要预测概率分布,交叉商损失函数(也称为log损失,见第4章)是不错的选择。

表10-2概括了分类MLP的典型架构。

表10-2 分类MLP的典型架构

提示:看下面的内容前,建议看看本章末尾的习题1。利用TensorFlow Playground可视化各样的神经网络架构,可以更深入的理解MLP和超参数(层数、神经元数、激活函数)的作用。

用Keras实现MLP

Keras是一个深度学习高级API,可以用它轻松地搭建、训练、评估和运行各种神经网络。Keras的文档见https://keras.io/。Keras参考实现(https://github.com/keras-team/keras)是François Chollet开发的,于2015年3月开源。得益于Keras简单易用灵活优美,迅速流行开来。为了进行神经网络计算,必须要有计算后端的支持。目前可选三个流行库:TensorFlow、CNTK和Theano。为避免误会,将GitHub上的Keras参考实现称为多后端Keras。

自从2016年底,出现了Kera的其它实现。现在已经可以在Apache MXNet、苹果Core ML、JavaScript或TypeScript(浏览器)、PlaidML(各种GPU,不限于Nvidia)上运行Keras。另外,TensorFlow也捆绑了自身的Keras实现 —— tf.keras,它只支持TensorFlow作为后端,但提供了更多使用的功能(见图10-10):例如,tf.keras支持TensorFlow的Data API,加载数据更轻松,预处理数据更高效。因此,本书使用的是tf.keras。本章的代码不局限于TensorFlow,只需要一些修改,比如修改引入,也可以在其他Keras实现上运行。

图10-10 Keras API的两个实现:左边是多后端Keras,右边是tf.keras

排在Keras和TensorFlow之后最流行的深度学习库,是Facebook的PyTorch。PyTorch的API与Keras很像,所以掌握了Keras,切换到PyTorch也不难。得益于易用性和详实的文档(TensorFlow 1的文档比较一般),PyTorch在2018年广泛流行开来。但是,TensorFlow 2 和PyTorch一样简单易用,因为TensorFlow使用了Keras作为它的高级API,并简化清理了TensorFlow的其它API。TensorFlow的文档也改观了,容易检索多了。相似的,PyTorch的缺点(可移植性差,没有计算图分析)在PyTorch 1.0版本中也得到了优化。良性竞争可以使所有人获益。(作者这段讲的真好!)

安装TensorFlow 2

假设已经在第2章中安装了Jupyter和Scikit-Learn,使用pip安装TensorFlow。如果使用了virtualenv,先要激活虚拟环境:

$ cd $ML_PATH                 # Your ML working directory (e.g., $HOME/ml)
$ source my_env/bin/activate  # on Linux or macOS
$ .\my_env\Scripts\activate   # on Windows

然后安装TensorFlow 2(如果没有使用虚拟环境,需要管理员权限,或加上选项--user):

$ python3 -m pip install --upgrade tensorflow

笔记:要使用GPU的话,在动笔写书的此刻,需要安装tensorflow-gpu,而不是tensorflow。但是TensorFlow团队正在开发一个既支持CPU也支持GPU的独立的库。要支持GPU的话,可能还要安装更多的库,参考https://tensorflow.org/install。第19章会深入介绍GPU。

要测试安装是否成功,可以在Python终端或Jupyter notebook中引入TensorFlow和tf.keras,然后打印其版本号:

>>> import tensorflow as tf
>>> from tensorflow import keras
>>> tf.__version__
'2.0.0'
>>> keras.__version__
'2.2.4-tf'

第二个版本号的末尾带有-tf,表明是tf.keras实现的Keras API,还有一些TensorFlow的专有功能。

使用Sequential API创建图片分类器

首先加载数据集。这章用的数据集是Fashion MNIST,它是MNIST一个替代品,格式与MNIST完全相同(70000张灰度图,每张的像素是28 × 28,共有10类),图的内容是流行物品,而不是数字,每类中的图片更丰富,识图的挑战性比MNIST高得多。例如,线性模型可以在MNIST上达到92%的准确率,但在Fashion MNIST上只有83%的准确率。

使用Keras加载数据集

Keras提供一些实用的函数用来获取和加载常见的数据集,包括MNIST、Fashion MNIST和第2章用过的加州房产数据集。加载Fashion MNIST:

fashion_mnist = keras.datasets.fashion_mnist
(X_train_full, y_train_full), (X_test, y_test) = fashion_mnist.load_data()

当使用Keras加载MNIST 或 Fashion MNIST时,和Scikit-Learn加载数据的一个重要区别是,每张图片是28 × 28 的数组,而不是大小是784的1D数组。另外像素的强度是用整数(0到255)表示的,而不是浮点数(0.0到255.0)。看下训练集的形状和类型:

>>> X_train_full.shape
(60000, 28, 28)
>>> X_train_full.dtype
dtype('uint8')

该数据集已经分成了训练集和测试集,但没有验证集。所以要建一个验证集,另外,因为要用梯度下降训练神经网络,必须要对输入特征进行缩放。简单起见,通过除以255.0将强度范围变为0-1:

X_valid, X_train = X_train_full[:5000] / 255.0, X_train_full[5000:] / 255.0
y_valid, y_train = y_train_full[:5000], y_train_full[5000:]

对于MNIST,当标签等于5时,表明图片是手写的数字5。但对于Fashion MNIST,需要分类名的列表:

class_names = ["T-shirt/top", "Trouser", "Pullover", "Dress", "Coat",
               "Sandal", "Shirt", "Sneaker", "Bag", "Ankle boot"]

例如,训练集的第一张图片表示外套:

>>> class_names[y_train[0]]
'Coat'

图10-11 展示了Fashion MNIST数据集的一些样本。

图10-11 Fashion MNIST数据集的一些样本

用 Sequential API 创建模型

搭建一个拥有两个隐含层的分类MLP:

model = keras.models.Sequential()
model.add(keras.layers.Flatten(input_shape=[28, 28]))
model.add(keras.layers.Dense(300, activation="relu"))
model.add(keras.layers.Dense(100, activation="relu"))
model.add(keras.layers.Dense(10, activation="softmax"))

逐行看下代码:

  • 第一行代码创建了一个Sequential模型,这是Keras最简单的模型,是由单层神经元顺序连起来的,被称为Sequential API;
  • 接下来创建了第一层,这是一个Flatten层,它的作用是将每个输入图片转变为1D数组:如果输入数据是X,该层则计算X.reshape(-1, 1)。该层没有任何参数,只是做一些简单预处理。因为是模型的第一层,必须要指明input_shapeinput_shape不包括批次大小,只是实例的形状。另外,第一层也可以是keras.layers.InputLayer,设置input_shape=[28,28];
  • 然后,添加了一个有300个神经元的紧密层,激活函数是ReLU。每个紧密层只负责自身的权重矩阵,权重矩阵是神经元与输入的所有连接权重。紧密层还要负责偏置项(每个神经元都有一个偏置项)矢量。当紧密层收到输入数据时,就利用公式10-2进行计算;
  • 接着再添加第二个紧密层,激活函数仍然是ReLU;
  • 最后,加上一个拥有10个神经元的输出层(每有一个类就要有一个神经元),激活函数是softmax(保证输出的概率和等于1,因为就只有这是个类,具有排他性)。

提示:设置activation="relu",等同于activation=keras.activations.relukeras.activations包中还有其它激活函数,完整列表见https://keras.io/activations/

除了一层一层加层,也可以传递一个层组成的列表:

model = keras.models.Sequential([
    keras.layers.Flatten(input_shape=[28, 28]),
    keras.layers.Dense(300, activation="relu"),
    keras.layers.Dense(100, activation="relu"),
    keras.layers.Dense(10, activation="softmax")
])

使用KERAS.IO的代码实例 keras.io上的代码也可以用于tf.keras,但是需要修改引入。例如,对于下面的代码: from keras.layers import Dense output_layer = Dense(10) 需要改成: from tensorflow.keras.layers import Dense output_layer = Dense(10) 或使用完整路径: from tensorflow import keras output_layer = keras.layers.Dense(10) 这么写就是麻烦点,但是我在本书中是采用的这种方法,因为不仅可以容易看出使用的是哪个包,还可以避免搞混标准类和自定义类。在生产环境中,我倾向于使用前种方式。还有人喜欢这样引入,tensorflow.keras import layers,使用layers.Dense(10)

模型的summary()方法可以展示所有层,包括每个层的名字(名字是自动生成的,除非建层时指定名字),输出的形状(None代表批次大小可以是任意值),和参数的数量。最后会输出所有参数的数量,包括可训练和不可训练参数。这章只有可训练参数(第11章可以看到不可训练参数的例子):

>>> model.summary()
Model: "sequential"
_________________________________________________________________
Layer (type)                 Output Shape              Param #
=================================================================
flatten (Flatten)            (None, 784)               0
_________________________________________________________________
dense (Dense)                (None, 300)               235500
_________________________________________________________________
dense_1 (Dense)              (None, 100)               30100
_________________________________________________________________
dense_2 (Dense)              (None, 10)                1010
=================================================================
Total params: 266,610
Trainable params: 266,610
Non-trainable params: 0
_________________________________________________________________

紧密层通常有许多参数。比如,第一个隐含层有784 × 300个连接权重,再加上300个偏置项,总共有235500个参数。这么多参数可以让模型具有足够的灵活度以拟合训练数据,但也意味着可能有过拟合的风险,特别是当训练数据不足时。后面再讨论这个问题。

使用属性,获取神经层很容易,可以通过索引或名称获取对应的层:

>>> model.layers
[<tensorflow.python.keras.layers.core.Flatten at 0x132414e48>,
 <tensorflow.python.keras.layers.core.Dense at 0x1324149b0>,
 <tensorflow.python.keras.layers.core.Dense at 0x1356ba8d0>,
 <tensorflow.python.keras.layers.core.Dense at 0x13240d240>]
>>> hidden1 = model.layers[1]
>>> hidden1.name
'dense'
>>> model.get_layer('dense') is hidden1
True

可以用get_weights()set_weights()方法,获取神经层的所有参数。对于紧密层,参数包括连接权重和偏置项:

>>> weights, biases = hidden1.get_weights()
>>> weights
array([[ 0.02448617, -0.00877795, -0.02189048, ..., -0.02766046,
         0.03859074, -0.06889391],
       ...,
       [-0.06022581,  0.01577859, -0.02585464, ..., -0.00527829,
         0.00272203, -0.06793761]], dtype=float32)
>>> weights.shape
(784, 300)
>>> biases
array([0., 0., 0., 0., 0., 0., 0., 0., 0., ...,  0., 0., 0.], dtype=float32)
>>> biases.shape
(300,)

紧密层是随机初始化连接权重的(为了避免对称性),偏置项则是0。如果想使用不同的初始化方法,可以在创建层时设置kernel_initializer(kernel是连接矩阵的另一个名字)或bias_initializer。第11章会进一步讨论初始化器,初始化器的完整列表见https://keras.io/initializers/

笔记:权重矩阵的形状取决于输入的数量。这就是为什么要在创建Sequential模型的第一层时指定input_shape。但是,如果不指定形状也没关系:Keras会在真正搭建模型前一直等待,直到弄清输入的形状(输入真实数据时,或调用build()方法时)。在搭建模型之前,神经层是没有权重的,也干不了什么事(比如打印模型概要或保存模型)。所以如果在创建模型时知道输入的形状,最好就设置好。

编译模型

创建好模型之后,必须调用compile()方法,设置损失函数和优化器。另外,还可以指定训练和评估过程中要计算的额外指标的列表:

model.compile(loss="sparse_categorical_crossentropy",
              optimizer="sgd",
              metrics=["accuracy"])

笔记:使用loss="sparse_categorical_crossentropy"等同于loss=keras.losses.sparse_categorical_crossentropy。相思的,optimizer="sgd"等同于optimizer=keras.optimizers.SGD()metrics=["accuracy"]等同于metrics=[keras.metrics.sparse_categorical_accuracy]。后面还会使用其他的损失函数、优化器和指标,它们的完整列表见https://keras.io/losseshttps://keras.io/optimizers、和 https://keras.io/metrics

解释下这段代码。首先,因为使用的是稀疏标签(每个实例只有一个目标类的索引,在这个例子中,目标类索引是0到9),且就是这十个类,没有其它的,所以使用的是"sparse_categorical_crossentropy"损失函数。如果每个实例的每个类都有一个目标概率(比如独热矢量,[0., 0., 0., 1., 0., 0., 0., 0., 0., 0.],来表示类3),则就要使用"categorical_crossentropy"损失函数。如果是做二元分类(有一个或多个二元标签),输出层就得使用"sigmoid"激活函数,损失函数则变为"binary_crossentropy"

提示:如果要将稀疏标签转变为独热矢量标签,可以使用函数keras.utils.to_categorical()。还以使用函数np.argmax()axis=1

对于优化器,"sgd"表示使用随机梯度下降训练模型。换句话说,Keras会进行反向传播算法。第11章会讨论更高效的优化器(可以提升梯度下降部分,改善不了自动微分部分)。

笔记:使用SGD时,调整学习率很重要,必须要手动设置好,optimizer=keras.optimizers.SGD(lr=???)optimizer="sgd"不同,它的学习率默认为lr=0.01

最后,因为是个分类器,最好在训练和评估时测量"accuracy"

训练和评估模型

可以训练模型了。只需调用fit()方法:

>>> history = model.fit(X_train, y_train, epochs=30,
...                     validation_data=(X_valid, y_valid))
...
Train on 55000 samples, validate on 5000 samples
Epoch 1/30
55000/55000 [======] - 3s 49us/sample - loss: 0.7218     - accuracy: 0.7660
                                      - val_loss: 0.4973 - val_accuracy: 0.8366
Epoch 2/30
55000/55000 [======] - 2s 45us/sample - loss: 0.4840     - accuracy: 0.8327
                                      - val_loss: 0.4456 - val_accuracy: 0.8480
[...]
Epoch 30/30
55000/55000 [======] - 3s 53us/sample - loss: 0.2252     - accuracy: 0.9192
                                      - val_loss: 0.2999 - val_accuracy: 0.8926

这里,向fit()方法传递了输入特征(X_train)和目标类(y_train),还要要训练的周期数(不设置的话,默认的周期数是1,肯定是不能收敛到一个好的解的)。另外还传递了验证集(它是可选的)。Keras会在每个周期结束后,测量损失和指标,这样就可以监测模型的表现。如果模型在训练集上的表现优于在验证集上的表现,可能模型在训练集上就过拟合了(或者就是存在bug,比如训练集和验证集的数据不匹配)。

仅需如此,神经网络就训练好了。训练中的每个周期,Keras会展示到目前为止一共处理了多少个实例(还带有进度条),每个样本的平均训练时间,以及在训练集和验证集上的损失和准确率(和其它指标)。可以看到,损失是一直下降的,这是一个好现象。经过30个周期,验证集的准确率达到了89.26%,与在训练集上的准确率差不多,所以没有过拟合。

提示:除了通过参数validation_data传递验证集,也可以通过参数validation_split从训练集分割出一部分作为验证集。比如,validation_split=0.1可以让Keras使用训练数据(打散前)的末尾10%作为验证集。

如果训练集非常倾斜,一些类过渡表达,一些欠表达,在调用fit()时最好设置class_weight参数,可以加大欠表达类的权重,减小过渡表达类的权重。Keras在计算损失时,会使用这些权重。如果每个实例都要加权重,可以设置sample_weight(这个参数优先于class_weight)。如果一些实例的标签是通过专家添加的,其它实例是通过众包平台添加的,最好加大前者的权重,此时给每个实例都加权重就很有必要。通过在validation_data元组中,给验证集加上样本权重作为第三项,还可以给验证集添加样本权重。

fit()方法会返回History对象,包含:训练参数(history.params)、周期列表(history.epoch)、以及最重要的包含训练集和验证集的每个周期后的损失和指标的字典(history.history)。如果用这个字典创建一个pandas的DataFrame,然后使用方法plot(),就可以画出学习曲线,见图10-12:

import pandas as pd
import matplotlib.pyplot as plt

pd.DataFrame(history.history).plot(figsize=(8, 5))
plt.grid(True)
plt.gca().set_ylim(0, 1) # set the vertical range to [0-1]
plt.show()

图10-12 学习曲线:每个周期的平均训练损失和准确率,验证损失和准确率

可以看到,训练准确率和验证准确率稳步提高,训练损失和验证损失持续下降。另外,验证曲线和训练曲线靠的很近,意味着没有什么过拟合。在这个例子中,在训练一开始时,模型在验证集上的表现由于训练集。但实际情况是,验证误差是在每个周期结束后算出来的,而训练误差在每个周期期间,用流动平均误差算出来的。所以训练曲线(译者注,图中橙色的那条)实际应该向左移动半个周期。移动之后,就可以发现在训练开始时,训练和验证曲线几乎是完美重合起来的。

提示:在绘制训练曲线时,应该向左移动半个周期。

通常只要训练时间足够长,训练集的表现就能超越验证集。从图中可以看到,验证损失仍然在下降,模型收敛的还不好,所以训练应该持续下去。只需要再次调用方法fit()即可,因为Keras可以从断点处继续(验证准确率可以达到89%。)

如果仍然对模型的表现不满意,就需要调节超参数了。首先是学习率。如果调节学习率没有帮助,就尝试换一个优化器(记得再调节任何超参数之后都重新调节学习率)。如果效果仍然不好,就调节模型自身的超参数,比如层数、每层的神经元数,每个隐藏层的激活函数。还可以调节其它超参数,比如批次大小(通过fit()的参数batch_size,默认是32)。本章末尾还会调节超参数。当对验证准确率达到满意之后,就可以用测试集评估泛化误差。只需使用evaluate()方法(evaluate()方法包含参数batch_sizesample_weight):

>>> model.evaluate(X_test, y_test)
10000/10000 [==========] - 0s 29us/sample - loss: 0.3340 - accuracy: 0.8851
[0.3339798209667206, 0.8851]

正如第2章所见,测试集的表现通常比验证集上低一点,这是因为超参数根据验证集而不是测试集调节的(但是在这个例子中,我们没有调节过超参数,所以准确率下降纯粹是运气比较差而已)。一定不要在测试集上调节超参数,否则会影响泛化误差。

使用模型进行预测

接下来,就可以用模型的predict()方法对新实例做预测了。因为并没有新实例,所以就用测试集的前3个实例来演示:

>>> X_new = X_test[:3]
>>> y_proba = model.predict(X_new)
>>> y_proba.round(2)
array([[0.  , 0.  , 0.  , 0.  , 0.  , 0.03, 0.  , 0.01, 0.  , 0.96],
       [0.  , 0.  , 0.98, 0.  , 0.02, 0.  , 0.  , 0.  , 0.  , 0.  ],
       [0.  , 1.  , 0.  , 0.  , 0.  , 0.  , 0.  , 0.  , 0.  , 0.  ]],
      dtype=float32)

可以看到,模型会对每个实例的每个类(从0到9)都给出一个概率。比如,对于第一张图,模型预测第9类(短靴)的概率是96%,第5类(凉鞋)的概率是3%,第7类(运动鞋)的概率是1%,剩下的类的概率都是0。换句话说,模型预测第一张图是鞋,最有可能是短靴,也有可能是凉鞋和运动鞋。如果只关心概率最高的类(即使概率不高),可以使用方法predict_classes()

>>> y_pred = model.predict_classes(X_new)
>>> y_pred
array([9, 2, 1])
>>> np.array(class_names)[y_pred]
array(['Ankle boot', 'Pullover', 'Trouser'], dtype='<U11')

对于这3个实例,模型的判断都是对的(见图10-13):

>>> y_new = y_test[:3]
>>> y_new
array([9, 2, 1])

图10-13 正确分类的Fashion MNIST图片

到此为止,我们学会了如何使用Sequential API来搭建、训练、评估和使用分类MLP?如何来做回归呢?

使用Sequential API搭建回归MLP

接下来使用回归神经网络来处理加州房价问题。简便起见,使用Scikit-Learn的fetch_california_housing()函数来加载数据。这个数据集比第2章所用的数据集简单,因为它只包括数值特征(没有ocean_proximity),也不包括缺失值。加载好数据之后,将数据集分割成训练集、验证集和测试集,并做特征缩放:

from sklearn.datasets import fetch_california_housing
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler

housing = fetch_california_housing()

X_train_full, X_test, y_train_full, y_test = train_test_split(
    housing.data, housing.target)
X_train, X_valid, y_train, y_valid = train_test_split(
    X_train_full, y_train_full)

scaler = StandardScaler()
X_train = scaler.fit_transform(X_train)
X_valid = scaler.transform(X_valid)
X_test = scaler.transform(X_test)

使用Sequential API搭建、训练、评估和使用回归MLP做预测,和前面的分类MLP很像。区别在于输出层只有一个神经元(因为只想预测一个值而已),也没有使用激活函数,损失函数是均方误差。因为数据集有噪音,我们就是用一个隐藏层,并且神经元也比之前少,以避免过拟合:

model = keras.models.Sequential([
    keras.layers.Dense(30, activation="relu", input_shape=X_train.shape[1:]),
    keras.layers.Dense(1)
])
model.compile(loss="mean_squared_error", optimizer="sgd")
history = model.fit(X_train, y_train, epochs=20,
                    validation_data=(X_valid, y_valid))
mse_test = model.evaluate(X_test, y_test)
X_new = X_test[:3] # pretend these are new instances
y_pred = model.predict(X_new)

可以看到,使用Sequential API是很方便的。但是,尽管Sequential十分常见,但用它搭建复杂拓扑形态或多输入多输出的神经网络还是不多。所以,Keras还提供了Functional API。

使用Functional API搭建复杂模型

Wide & Deep是一个非序列化的神经网络模型。这个架构是Heng-Tze Cheng在2016年在论文(https://arxiv.org/abs/1606.07792)中提出来的。这个模型可以将全部或部分输入与输出层连起来,见图10-14。这样,就可以既学到深层模式(使用深度路径)和简单规则(使用短路径)。作为对比,常规MLP会强制所有数据流经所有层,因此数据中的简单模式在多次变换后会被扭曲。

图10-14 Wide & Deep神经网络

我们来搭建一个这样的神经网络,来解决加州房价问题:

input_ = keras.layers.Input(shape=X_train.shape[1:])
hidden1 = keras.layers.Dense(30, activation="relu")(input_)
hidden2 = keras.layers.Dense(30, activation="relu")(hidden1)
concat = keras.layers.Concatenate()([input_, hidden2])
output = keras.layers.Dense(1)(concat)
model = keras.Model(inputs=[input_], outputs=[output])

每行代码的作用:

  • 首先创建一个Input对象。包括模型输入的形状shape和数据类型dtype。模型可能会有多种输入。
  • 然后,创建一个有30个神经元的紧密层,激活函数是ReLU。创建好之后,将其作为函数,直接将输入传给它。这就是Functional API的得名原因。这里只是告诉Keras如何将层连起来,并没有导入实际数据。
  • 然后创建第二个隐藏层,还是将其作为函数使用,输入时第一个隐藏层的输出;
  • 接着,创建一个连接Concatenate层,也是作为函数使用,将输入和第二个隐藏层的输出连起来。可以使用keras.layers.concatenate()
  • 然后创建输出层,只有一个神经元,没有激活函数,将连接层的输出作为输入。
  • 最后,创建一个Keras的Model,指明输入和输出。

搭建好模型之后,重复之前的步骤:编译模型、训练、评估、做预测。

但是如果你想将部分特征发送给wide路径,将部分特征(可以有重叠)发送给deep路径,该怎么做呢?答案是可以使用多输入。例如,假设向wide路径发送5个特征(特征0到4),向deep路径发送6个特征(特征2到7):

图10-15 处理多输入

input_A = keras.layers.Input(shape=[5], name="wide_input")
input_B = keras.layers.Input(shape=[6], name="deep_input")
hidden1 = keras.layers.Dense(30, activation="relu")(input_B)
hidden2 = keras.layers.Dense(30, activation="relu")(hidden1)
concat = keras.layers.concatenate([input_A, hidden2])
output = keras.layers.Dense(1, name="output")(concat)
model = keras.Model(inputs=[input_A, input_B], outputs=[output])

代码非常浅显易懂。值得注意的是,在创建模型时,我们指明了inputs=[input_A, input_B]。然后就可以像通常那样编译模型了,但当调用fit()时,不是传入矩阵X_train,而是传入一对矩阵(X_train_A, X_train_B):每个输入一个矩阵。同理调用evaluate()predict()时,X_validX_testX_new也要变化:

model.compile(loss="mse", optimizer=keras.optimizers.SGD(lr=1e-3))

X_train_A, X_train_B = X_train[:, :5], X_train[:, 2:]
X_valid_A, X_valid_B = X_valid[:, :5], X_valid[:, 2:]
X_test_A, X_test_B = X_test[:, :5], X_test[:, 2:]
X_new_A, X_new_B = X_test_A[:3], X_test_B[:3]

history = model.fit((X_train_A, X_train_B), y_train, epochs=20,
                    validation_data=((X_valid_A, X_valid_B), y_valid))
mse_test = model.evaluate((X_test_A, X_test_B), y_test)
y_pred = model.predict((X_new_A, X_new_B))

有以下要使用多输入的场景:

  • 任务要求。例如,你想定位和分类图片中的主要物体。这既是一个回归任务(找到目标中心的坐标、宽度和高度)和分类任务。
  • 相似的,对于相同的数据,你可能有多个独立的任务。当然可以每个任务训练一个神经网络,但在多数情况下,同时对所有任务训练一个神经网络,每个任务一个输出,后者的效果更好。这是因为神经网络可以在不同任务间学习有用的数据特征。例如,在人脸的多任务分类时,你可以用一个输出做人物表情的分类(微笑惊讶等等),用另一个输出判断是否戴着眼镜。
  • 另一种情况是作为一种正则的方法(即,一种降低过拟合和提高泛化能力的训练约束)。例如,你想在神经网络中加入一些辅助输出(见图10-16),好让神经网络的一部分依靠自身就能学到一些东西。

图10-16 处理多输入,加入辅助输出作为正则

添加额外的输出很容易:只需要将输出和相关的层连起来、将输出写入输出列表就行。例如,下面的代码搭建的就是图10-16的架构:

[...] # output层前面都一样
output = keras.layers.Dense(1, name="main_output")(concat)
aux_output = keras.layers.Dense(1, name="aux_output")(hidden2)
model = keras.Model(inputs=[input_A, input_B], outputs=[output, aux_output])

每个输出都要有自己的损失函数。因此在编译模型时,需要传入损失列表(如果只传入一个损失,Keras会认为所有输出是同一个损失函数)。Keras默认计算所有损失,将其求和得到最终损失用于训练。主输出比辅助输出更值得关心,所以要提高它的权重,如下所示:

model.compile(loss=["mse", "mse"], loss_weights=[0.9, 0.1], optimizer="sgd")

此时若要训练模型,必须给每个输出贴上标签。在这个例子中,主输出和辅输出预测的是同一件事,因此标签相同。传入数据必须是(y_train, y_train)y_validy_test也是如此):

history = model.fit(
    [X_train_A, X_train_B], [y_train, y_train], epochs=20,
    validation_data=([X_valid_A, X_valid_B], [y_valid, y_valid]))

当评估模型时,Keras会返回总损失和各个损失值:

total_loss, main_loss, aux_loss = model.evaluate(
    [X_test_A, X_test_B], [y_test, y_test])

相似的,方法predict()会返回每个输出的预测值:

y_pred_main, y_pred_aux = model.predict([X_new_A, X_new_B])

可以看到,用Functional API可以轻易搭建任意架构。接下来再看最后一种搭建Keras模型的方法。

使用Subclassing API搭建动态模型

Sequential API和Functional API都是声明式的:只有声明创建每个层以及层的连接方式,才能给模型加载数据以进行训练和推断。这种方式有其优点:模型可以方便的进行保存、克隆和分享;模型架构得以展示,便于分析;框架可以推断数据形状和类型,便于及时发现错误(加载数据之前就能发现错误)。调试也很容易,因为模型是层的静态图。但是缺点也很明显:模型是静态的。一些模型包含循环、可变数据形状、条件分支,和其它的动态特点。对于这些情况,或者你只是喜欢命令式编程,不妨使用Subclassing API。

Model类划分子类,在构造器中创建需要的层,调用call()进行计算。例如,创建一个下面的WideAndDeepModel类的实例,就可以创建与前面Functional API例子的同样模型,同样可以进行编译、评估、预测:

class WideAndDeepModel(keras.Model):
    def __init__(self, units=30, activation="relu", **kwargs):
        super().__init__(**kwargs) # handles standard args (e.g., name)
        self.hidden1 = keras.layers.Dense(units, activation=activation)
        self.hidden2 = keras.layers.Dense(units, activation=activation)
        self.main_output = keras.layers.Dense(1)
        self.aux_output = keras.layers.Dense(1)

    def call(self, inputs):
        input_A, input_B = inputs
        hidden1 = self.hidden1(input_B)
        hidden2 = self.hidden2(hidden1)
        concat = keras.layers.concatenate([input_A, hidden2])
        main_output = self.main_output(concat)
        aux_output = self.aux_output(hidden2)
        return main_output, aux_output

model = WideAndDeepModel()

这个例子和Functional API很像,除了不用创建输入;只需要在call()使用参数input,另外的不同是将层的创建和和使用分割了。最大的差别是,在call()方法中,你可以做任意想做的事:for循环、if语句、低级的TensorFlow操作,可以尽情发挥想象(见第12章)!Subclassing API可以让研究者试验各种新创意。

然而代价也是有的:模型架构隐藏在call()方法中,所以Keras不能对其检查;不能保存或克隆;当调用summary()时,得到的只是层的列表,没有层的连接信息。另外,Keras不能提前检查数据类型和形状,所以很容易犯错。所以除非真的需要灵活性,还是使用Sequential API或Functional API吧。

提示:可以像常规层一样使用Keras模型,组合模型搭建任意复杂的架构。

学会了搭建和训练神经网络,接下来看看如何保存。

保存和恢复模型

使用Sequential API或Functional API时,保存训练好的Keras模型和训练一样简单:

model = keras.layers.Sequential([...]) # or keras.Model([...])
model.compile([...])
model.fit([...])
model.save("my_keras_model.h5")

Keras使用HDF5格式保存模型架构(包括每层的超参数)和每层的所有参数值(连接权重和偏置项)。还保存了优化器(包括超参数和状态)。

通常用脚本训练和保存模型,一个或更多的脚本(或web服务)来加载模型和做预测。加载模型很简单:

model = keras.models.load_model("my_keras_model.h5")

警告:这种加载模型的方法只对Sequential API或Functional API有用,不适用于Subclassing API。对于后者,可以用save_weights()load_weights()保存参数,其它的就得手动保存恢复了。

但如果训练要持续数个小时呢?在大数据集上训练,训练时间长很普遍。此时,不仅要在训练结束时保存模型检查点,在一定时间间隔内也要保存,以免电脑宕机造成损失。但是如何告诉fit()保存检查点呢?使用调回。

使用调回

fit()方法接受参数callbacks,可以让用户指明一个Keras列表,让Keras在训练开始和结束、每个周期开始和结束、甚至是每个批次的前后调用。例如,ModelCheckpoint可以在每个时间间隔保存检查点,默认是每个周期结束之后:

[...] # 搭建编译模型
checkpoint_cb = keras.callbacks.ModelCheckpoint("my_keras_model.h5")
history = model.fit(X_train, y_train, epochs=10, callbacks=[checkpoint_cb])

另外,如果训练时使用了验证集,可以在创建检查点时设定save_best_only=True,只有当模型在验证集上取得最优值时才保存模型。这么做可以不必担心训练时间过长和训练集过拟合:只需加载训练好的模型,就能保证是在验证集上表现最好的模型。下面的代码演示了早停(见第4章):

checkpoint_cb = keras.callbacks.ModelCheckpoint("my_keras_model.h5",
                                                save_best_only=True)
history = model.fit(X_train, y_train, epochs=10,
                    validation_data=(X_valid, y_valid),
                    callbacks=[checkpoint_cb])
model = keras.models.load_model("my_keras_model.h5") # roll back to best model

另一种实现早停的方法是使用EarlyStopping调回。当检测到经过几个周期(周期数由参数patience确定),验证集表现没有提升时,就会中断训练,还能自动滚回到最优模型。可以将保存检查点(避免宕机)和早停(避免浪费时间和资源)结合起来:

early_stopping_cb = keras.callbacks.EarlyStopping(patience=10,
                                                  restore_best_weights=True)
history = model.fit(X_train, y_train, epochs=100,
                    validation_data=(X_valid, y_valid),
                    callbacks=[checkpoint_cb, early_stopping_cb])

周期数可以设的很大,因为准确率没有提升时,训练就会自动停止。此时,就没有必要恢复最优模型,因为EarlyStopping调回一直在跟踪最优权重,训练结束时能自动恢复。

提示:包keras.callbacks中还有其它可用的调回。

如果还想有其它操控,还可以编写自定义的调回。下面的例子展示了一个可以展示验证集损失和训练集损失比例的自定义(检测过拟合)调回:

class PrintValTrainRatioCallback(keras.callbacks.Callback):
    def on_epoch_end(self, epoch, logs):
        print("\nval/train: {:.2f}".format(logs["val_loss"] / logs["loss"]))

类似的,还可以实现on_train_begin()on_train_end()on_epoch_begin()on_epoch_end()on_batch_begin()、和on_batch_end()。如果需要的话,在评估和预测时也可以使用调回(例如为了调试)。对于评估,可以实现on_test_begin()on_test_end()on_test_batch_begin()on_test_batch_end()(通过evaluate()调用);对于预测,可以实现on_predict_begin()on_predict_end()on_predict_batch_begin()on_predict_batch_end()(通过predict()调用)。

下面来看一个使用tf.keras的必备工具:TensorBoard。

使用TensorBoard进行可视化

TensorBoard是一个强大的交互可视化工具,使用它可以查看训练过程中的学习曲线、比较每次运行的学习曲线、可视化计算图、分析训练数据、查看模型生成的图片、可视化投射到3D的多维数据,等等。TensorBoard是TensorFlow自带的。

要使用TensorBoard,必须修改程序,将要可视化的数据输出为二进制的日志文件event files。每份二进制数据称为摘要summary,TensorBoard服务器会监测日志文件目录,自动加载更新并可视化:这样就能看到实时数据(稍有延迟),比如训练时的学习曲线。通常,将TensorBoard服务器指向根日志目录,程序的日志写入到它的子目录,这样一个TensorBoard服务就能可视化并比较多次运行的数据,而不会将其搞混。

我们先定义TensorBoard的根日志目录,还有一些根据当前日期生成子目录的小函数。你可能还想在目录名中加上其它信息,比如超参数的值,方便知道查询的内容:

import os
root_logdir = os.path.join(os.curdir, "my_logs")

def get_run_logdir():
    import time
    run_id = time.strftime("run_%Y_%m_%d-%H_%M_%S")
    return os.path.join(root_logdir, run_id)

run_logdir = get_run_logdir() # e.g., './my_logs/run_2019_06_07-15_15_22'

Keras提供了一个TensorBoard()调回:

[...] # 搭建编译模型
tensorboard_cb = keras.callbacks.TensorBoard(run_logdir)
history = model.fit(X_train, y_train, epochs=30,
                    validation_data=(X_valid, y_valid),
                    callbacks=[tensorboard_cb])

简直不能再简单了。如果运行这段代码,TensorBoard()调回会负责创建日志目录(包括父级目录),在训练过程中会创建事件文件并写入概要。再次运行程序(可能修改了一些超参数)之后,得到的目录结构可能如下:

my_logs/
├── run_2019_06_07-15_15_22
│   ├── train
│   │   ├── events.out.tfevents.1559891732.mycomputer.local.38511.694049.v2
│   │   ├── events.out.tfevents.1559891732.mycomputer.local.profile-empty
│   │   └── plugins/profile/2019-06-07_15-15-32
│   │       └── local.trace
│   └── validation
│       └── events.out.tfevents.1559891733.mycomputer.local.38511.696430.v2
└── run_2019_06_07-15_15_49
    └── [...]

每次运行都会创建一个目录,每个目录都有一个包含训练日志和验证日志的子目录。两者都包括事件文件,训练日志还包括分析追踪信息:它可以让TensorBoard展示所有设备上的模型的各个部分的训练时长,有助于定位性能瓶颈。

然后就可以启动TensorBoard服务了。一种方式是通过运行命令行。如果是在虚拟环境中安装的TensorFlow,需要激活虚拟环境。接着,在根目录(也可以是其它路径,但一定要指向日志目录)运行下面的命令:

$ tensorboard --logdir=./my_logs --port=6006
TensorBoard 2.0.0 at http://mycomputer.local:6006/ (Press CTRL+C to quit)

如果终端没有找到tensorboard命令,必须更新环境变量PATH(或者,可以使用python3 -m tensorboard.main)。服务启动后,打开浏览器访问 http://localhost:6006

或者,通过运行下面的命令,可以在Jupyter里面直接使用TensorBoard。第一行代码加载了TensorBoard扩展,第二行在端口6006启动了一个TensorBoard服务,并连接:

%load_ext tensorboard
%tensorboard --logdir=./my_logs --port=6006

无论是使用哪种方式,都得使用TensorBoard的浏览器界面。点击栏SCALARS可以查看学习曲线(见图10-17)。左下角选择想要可视化的路径(比如第一次和第二次运行的训练日志),再点击epoch_loss。可以看到,在两次训练过程中,训练损失都是下降的,但第二次下降的更快。事实上,第二次的学习率是0.05(optimizer=keras.optimizers.SGD(lr=0.05))而不是0.001。

图10-17 使用TensorBoard可视化学习曲线

还可以对全图、权重(投射到3D)或其它信息做可视化。TensorBoard()调回还有选项可以记录其它数据的日志,比如嵌入(见第13章)。另外,TensorBoard在tf.summary包中还提供了低级API。下面的代码使用方法create_file_writer()创建了SummaryWriter,TensorBoard使用SummaryWriter作为记录标量、柱状图、图片、音频和文本的上下文,所有这些都是可以可视化的!

test_logdir = get_run_logdir()
writer = tf.summary.create_file_writer(test_logdir)
with writer.as_default():
    for step in range(1, 1000 + 1):
        tf.summary.scalar("my_scalar", np.sin(step / 10), step=step)
        data = (np.random.randn(100) + 2) * step / 100 # some random data
        tf.summary.histogram("my_hist", data, buckets=50, step=step)
        images = np.random.rand(2, 32, 32, 3) # random 32×32 RGB images
        tf.summary.image("my_images", images * step / 1000, step=step)
        texts = ["The step is " + str(step), "Its square is " + str(step**2)]
        tf.summary.text("my_text", texts, step=step)
        sine_wave = tf.math.sin(tf.range(12000) / 48000 * 2 * np.pi * step)
        audio = tf.reshape(tf.cast(sine_wave, tf.float32), [1, -1, 1])
        tf.summary.audio("my_audio", audio, sample_rate=48000, step=step)

总结一下目前所学:神经网络的起源、MLP是什么、如何用MLP做分类和回归、如何使用Sequential API搭建MLP、如何使用Functional API或Subclassing API搭建更复杂的模型架构、保存和恢复模型、如何使用调回创建检查点、早停,等等。最后,学了使用TensorBoard做可视化。这些知识已经足够解决许多问题了。但是,你可能还有疑问,如何选择隐藏层的层数、神经元的数量,以及其他的超参数,下面就来讨论这些问题。

微调神经网络的超参数

神经网络的灵活性同时也是它的缺点:要微调的超参数太多了。不仅架构可能不同,就算对于一个简单的MLP,就可以调节层数、每层的神经元数、每层使用什么激活函数、初始化的权重,等等。怎么才能知道哪个超参数的组合才是最佳的呢?

一种方法是直接试验超参数的组合,看哪一个在验证集(或使用K折交叉验证)的表现最好。例如,可以使用GridSearchCVRandomizedSearchCV探索超参数空间,就像第2章中那样。要这么做的话,必须将Keras模型包装进模仿Scikit-Learn回归器的对象中。第一步是给定一组超参数,创建一个搭建和编译Keras模型的函数:

def build_model(n_hidden=1, n_neurons=30, learning_rate=3e-3, input_shape=[8]):
    model = keras.models.Sequential()
    model.add(keras.layers.InputLayer(input_shape=input_shape))
    for layer in range(n_hidden):
        model.add(keras.layers.Dense(n_neurons, activation="relu"))
    model.add(keras.layers.Dense(1))
    optimizer = keras.optimizers.SGD(lr=learning_rate)
    model.compile(loss="mse", optimizer=optimizer)
    return model

这个函数创建了一个单回归(只有一个输出神经元)Sequential模型,数据形状、隐藏层的层数和神经元数是给定的,使用指定学习率的SGD优化器编译。最好尽量给大多数超参数都设置合理的默认值,就像Scikit-Learn那样。

然后使用函数build_model()创建一个KerasRegressor

keras_reg = keras.wrappers.scikit_learn.KerasRegressor(build_model)

KerasRegressor是通过build_model()将Keras模型包装起来的。因为在创建时没有指定任何超参数,使用的是build_model()的默认参数。现在就可以像常规的Scikit-Learn回归器一样来使用它了:使用fit()方法训练,使用score()方法评估,使用predict()方法预测,见下面代码:

keras_reg.fit(X_train, y_train, epochs=100,
              validation_data=(X_valid, y_valid),
              callbacks=[keras.callbacks.EarlyStopping(patience=10)])
mse_test = keras_reg.score(X_test, y_test)
y_pred = keras_reg.predict(X_new)

任何传给fit()的参数都会传给底层的Keras模型。另外,score分数的意义和MSE是相反的(即,分数越高越好)。因为超参数太多,最好使用随机搜索而不是网格搜索(见第2章的解释)。下面来探索下隐藏层的层数、神经元数和学习率:

from scipy.stats import reciprocal
from sklearn.model_selection import RandomizedSearchCV

param_distribs = {
    "n_hidden": [0, 1, 2, 3],
    "n_neurons": np.arange(1, 100),
    "learning_rate": reciprocal(3e-4, 3e-2),
}

rnd_search_cv = RandomizedSearchCV(keras_reg, param_distribs, n_iter=10, cv=3)
rnd_search_cv.fit(X_train, y_train, epochs=100,
                  validation_data=(X_valid, y_valid),
                  callbacks=[keras.callbacks.EarlyStopping(patience=10)])

所做的和第2章差不多,除了这里试讲参数传给fit()fit()再传给底层的Keras。注意,RandomizedSearchCV使用的是K折交叉验证,没有用X_validy_valid(只有早停时才使用)。

取决于硬件、数据集大小、模型复杂度、n_itercv,求解过程可能会持续几个小时。计算完毕后,就能得到最佳参数、最佳得分和训练好的Keras模型,如下所示:

>>> rnd_search_cv.best_params_
{'learning_rate': 0.0033625641252688094, 'n_hidden': 2, 'n_neurons': 42}
>>> rnd_search_cv.best_score_
-0.3189529188278931
>>> model = rnd_search_cv.best_estimator_.model

现在就可以保存模型、在测试集上评估,如果对效果满意,就可以部署了。使用随机搜索并不难,适用于许多相对简单的问题。但是当训练较慢时(大数据集的复杂问题),这个方法就只能探索超参数空间的一小部分而已。通过手动调节可以缓解一下:首先使用大范围的超参数值先做一次随机搜索,然后根据第一次的结果再做一次小范围的计算,以此类推。这样就能缩放到最优超参数的范围了。但是,这么做很耗时。

幸好,有比随机搜索更好的探索超参数空间的方法。核心思想很简单:当某块空间的区域表现好时,就多探索这块区域。这些方法可以代替用户做“放大”工作,可以在更短的时间得到更好的结果。下面是一些可以用来优化超参数的Python库:

Hyperopt 一个可以优化各种复杂搜索空间(包括真实值,比如学习率和离散值,比如层数)的库。

HyperaskoptTalos 用来优化Keras模型超参数的库(前两个是基于Hyperopt的)。

Keras Tuner Google开发的简单易用的Keras超参数优化库,还有可视化和分析功能。

Scikit-Optimize (skopt) 一个通用的优化库。类BayesSearchCV使用类似于GridSearchCV的接口做贝叶斯优化。

Spearmint 一个贝叶斯优化库。

Hyperband 一个快速超参数调节库,基于Lisha Li的论文 《Hyperband: A Novel Bandit-Based Approach to Hyperparameter Optimization》,https://arxiv.org/abs/1603.06560

Sklearn-Deap 一个基于进化算法的超参数优化库,接口类似GridSearchCV

另外,许多公司也提供超参数优化服务。第19章会讨论Google Cloud AI平台的超参数调节服务(https://cloud.google.com/ml-engine/docs/tensorflow/using-hyperparameter-tuning)。其它公司有ArimoSigOpt,和CallDesk的 Oscar.

超参数调节仍然是活跃的研究领域,其中进化算法表现很突出。例如,在2017年的论文《Population Based Training of Neural Networks》(https://arxiv.org/abs/1711.09846)中,Deepmind的作者用统一优化了一组模型及其超参数。Google也使用了一种进化算法,不仅用来搜索查参数,还可以搜索最佳的神经网络架构;Google的AutoML套间已经可以在云服务上使用了(https://cloud.google.com/automl/)。也许手动搭建神经网络的日子就要结束了?看看Google的这篇文章:https://ai.googleblog.com/2018/03/using-evolutionary-automl-to-discover.html。事实上,用进化算法训练独立的神经网络很成功,已经取代梯度下降了。例如,Uber在2017年介绍了名为Deep Neuroevolution的技术,见https://eng.uber.com/deep-neuroevolution/

尽管有这些工具和服务,知道每个超参数该取什么值仍然是帮助的,可以快速创建原型和收缩搜索范围。后面的文字介绍了选择MLP隐藏层数和神经元数的原则,以及如何选择主要的超参数值。

隐藏层数

对于许多问题,开始时只用一个隐藏层就能得到不错的结果。只要有足够多的神经元,只有一个隐藏层的MLP就可以对复杂函数建模。但是对于复杂问题,深层网络比浅层网络有更高的参数效率:深层网络可以用指数级别更少的神经元对复杂函数建模,因此对于同样的训练数据量性能更好。

要明白为什么,假设别人让你用绘图软件画一片森林,但你不能复制和粘贴。这样的话,就得花很长时间,你需要手动来画每一棵树,一个树枝然后一个树枝,一片叶子然后一片叶子。如果可以鲜花一片叶子,然后将叶子复制粘贴到整个树枝上,再将树枝复制粘贴到整棵树上,然后再复制树,就可以画出一片森林了,所用的时间可以大大缩短。真实世界的数据通常都是有层次化结构的,深层神经网络正式利用了这一点:浅隐藏层对低级结构(比如各种形状的线段和方向),中隐藏层结合这些低级结构对中级结构(方,圆)建模,深隐藏层和输出层结合中级结构对高级结构(比如,脸)建模。

层级化的结构不仅帮助深度神经网络收敛更快,,也提高了对新数据集的泛化能力。例如,如果已经训练好了一个图片人脸识别的模型,现在想训练一个识别发型的神经网络,你就可以复用第一个网络的浅层。不用随机初始化前几层的权重和偏置项,而是初始化为第一个网络浅层的权重和偏置项。这样,网络就不用从多数图片的低级结构开始学起;只要学高级结构(发型)就行了。这就称为迁移学习。

概括来讲,对于许多问题,神经网络只有一或两层就够了。例如,只用一个隐藏层和几百个神经元,就能在MNIST上轻松达到97%的准确率;同样的神经元数,两个隐藏层,训练时间几乎相同,就能达到98%的准确率。对于更复杂的问题,可以增加隐藏层的数量,直到在训练集上过拟合为止。非常复杂的任务,比如大图片分类或语音识别,神经网络通常需要几十层(甚至上百,但不是全连接的,见第14章),需要的训练数据量很大。对于这样的网络,很少是从零训练的:常见的是使用预训练好的、表现出众的任务相近的网络,训练可以快得多,需要的数据也可以不那么多(见第11章的讨论)。

每个隐藏层的神经元数

输入层和输出层的神经元数是由任务确定的输入和输出类型决定的。例如,MNIST任务需要28 × 28 = 784个输入神经元和10个输出神经元。

对于隐藏层,惯用的方法是模拟金字塔的形状,神经元数逐层递减 —— 底层思想是,许多低级特征可以聚合成少得多的高级特征。MNIST的典型神经网络可能需要3个隐藏层,第一层有300个神经元,第二层有200个神经元,第三层有100个神经元。然而,这种方法已经被抛弃了,因为所有隐藏层使用同样多的神经元不仅表现更好,要调节的超参数也只变成了一个,而不是每层都有一个。或者,取决于数据集的情况,有时可以让第一个隐藏层比其它层更大。

和层数相同,可以逐步提高神经元的数量,知道发生过拟合为止。但在实际中,通常的简便而高效的方法是使用层数和神经元数都超量的模型,然后使用早停和其它正则技术防止过拟合。一位Google的科学家Vincent Vanhoucke,称这种方法为“弹力裤”:不浪费时间选择尺寸完美匹配的裤子,而是选择一条大的弹力裤,它能自动收缩到合适的尺寸。通过这种方法,可以避免影响模型的瓶颈层。另一方面,如果某层的神经元太少,就没有足够强的表征能力,保存所有的输入信息(比如,只有两个神经元的的层只能输出2D数据,如果用它处理3D数据,就会丢失信息)。无论模型网络的其它部分如何强大,丢失的信息也找不回来了。

提示:通常,增加层数比增加每层的神经元的收益更高。

学习率,批次大小和其它超参数

隐藏层的层数和神经元数不是MLP唯二要调节的参数。下面是一些其它的超参数和调节策略:

学习率: 学习率可能是最重要的超参数。通常,最佳学习率是最大学习率(最大学习率是超过一定值,训练算法发生分叉的学习率,见第4章)的大概一半。找到最佳学习率的方式之一是从一个极小值开始(比如10-5)训练模型几百次,直到学习率达到一个比较大的值(比如10)。这是通过在每次迭代,将学习率乘以一个常数实现的(例如 exp(log(106)/500,通过500次迭代,从10-5到10 )。如果将损失作为学习率的函数画出来(学习率使用log),能看到损失一开始是下降的。过了一段时间,学习率会变得非常高,损失就会升高:最佳学习率要比损失开始升高的点低一点(通常比拐点低10倍)。然后就可以重新初始化模型,用这个学习率开始训练了。第11章会介绍更多的学习率优化方法。

优化器: 选择一个更好的优化器(并调节超参数)而不是传统的小批量梯度下降优化器同样重要。第11章会介绍更先进的优化器。

批次大小: 批次大小对模型的表现和训练时间非常重要。使用大批次的好处是硬件(比如GPU)可以快速处理(见第19章),每秒可以处理更多实例。因此,许多人建议批次大小开到GPU内存的最大值。但也有缺点:在实际中,大批次,会导致训练不稳定,特别是在训练开始时,并且不如小批次模型的泛化能力好。2018年四月,Yann LeCun甚至发了一条推特:“朋友之间不会让对方的批次大小超过32”,引用的是Dominic Masters和Carlo Luschi的论文《Revisiting Small Batch Training for Deep Neural Networks》(https://arxiv.org/abs/1804.07612),在这篇论文中,作者的结论是小批次(2到32)更可取,因为小批次可以在更短的训练时间得到更好的模型。但是,有的论文的结论截然相反:2017年,两篇论文《Train longer, generalize better: closing the generalization gap in large batch training of neural networks》《Accurate, Large Minibatch SGD: Training ImageNet in 1 Hour》建议,通过多种方法,比如给学习率热身(即学习率一开始很小,然后逐渐提高,见第11章),就能使用大批次(最大8192)。这样,训练时间就能非常短,也没有泛化鸿沟。因此,一种策略是通过学习率热身使用大批次,如果训练不稳定或效果不好,就换成小批次。

激活函数: 本章一开始讨论过如何选择激活函数:通常来讲,ReLU适用于所有隐藏层。对于输出层,就要取决于任务。

迭代次数: 对于大多数情况,用不着调节训练的迭代次数:使用早停就成了。

提示:最佳学习率还取决于其它超参数,特别是批次大小,所以如果调节了任意超参数,最好也更新学习率。

想看更多关于调节超参数的实践,可以参考Leslie Smith的论文《A disciplined approach to neural network hyper-parameters: Part 1 -- learning rate, batch size, momentum, and weight decay》

这章总结了对人工神经网络,以及Kera是实现。接下来的章节,我们会讨论训练深层网络的方法。还会使用TensorFlow的低级API实现自定义模型,和使用Data API高效加载和预处理数据。还会探讨其它流行的神经网络:用于图像处理的卷积神经网络,用于序列化数据的循环神经网络,用于表征学习的自编码器,用于建模和生成数据的对抗生成网络。

练习

  1. TensorFlow Playground是TensorFlow团队推出的一个便利的神经网络模拟器。只需点击几下,就能训练出二元分类器,通过调整架构和超参数,可以从直观上理解神经网络是如何工作的,以及超参数的作用。如下所示:

a. 神经网络学到的模式。点击左上的运行按钮,训练默认的神经网络。注意是如何找到分类任务的最优解的。第一个隐藏层学到了简单模式,第二个隐藏层将简单模式结合为更复杂的模式。通常,层数越多,得到的模式越复杂。

b. 激活函数。用ReLU激活函数代替tanh,再训练一次网络。注意,找到解变得更快了,且是线性的,这归功于ReLU函数的形状。

c. 局部最小值的风险。将网络只设定为只有一个隐藏层,且只有3个神经元。进行多次训练(重置网络权重,点击Reset按钮)。可以看到训练时间变化很大,甚至有时卡在了局部最小值。

d. 神经网络太小的状况。去除一个神经元,只剩下两个。可以看到,即使尝试多次,神经网络现也不能找到最优解。模型的参数太少,对训练集数据欠拟合。

e. 神经网络足够大的状况。将神经元数设为8,再多次训练神经网络。可以看到过程很快且不会卡住。这是一个重要的发现:大神经网络几乎从不会卡在局部最小值,即使卡住了,局部最小值通常也是全局最小值。但是仍然可能在平台期卡住相当长时间。

f. 梯度消失的风险。选择spiral数据集(右下角位于DATA下面的数据集),模型架构变为四个隐藏层,每层八个神经元。可以看到,训练耗时变长,且经常在平台期卡住很长时间。另外,最高层(右边)的神经元比最底层变得快。这个问题被称为“梯度消失”,可以通过更优的权重初始化、更好的优化器(比如AdaGrad或Adam)、或批次正态化(见第11章)解决。

g. 再尝试尝试其它参数。

  1. 用原始神经元(像图10-3中的神经元)画ANN,可以计算 A ⊕ B ( ⊕ 表示 XOR操作)。提示:A ⊕ B = (A ∧ ¬ B ∨ (¬ A ∧ B)
  2. 为什么逻辑回归比经典感知机(即使用感知机训练算法训练的单层的阈值逻辑单元)更好?如何调节感知机,使其等同于逻辑回归分类器?
  3. 为什么逻辑激活函数对训练MLP的前几层很重要?
  4. 说出三种流行的激活函数,并画出来。
  5. 假设一个MLP的输入层有10个神经元,接下来是有50个人工神经元的的隐藏层,最后是一个有3个人工神经元的输出层。所有的神经元使用ReLU激活函数。回答以下问题:
  • 输入矩阵X的形状是什么?
  • 隐藏层的权重矢量Wh和偏置项bh的形状是什么?
  • 输出层的权重矢量Wo和偏置项bo的形状是什么?
  • 输出矩阵Y的形状是什么?
  • 写出用X、Wh、bh、Wo、bo计算矩阵Y的等式。
  1. 如果要将邮件分为垃圾邮件和正常邮件,输出层需要几个神经元?输出层应该使用什么激活函数?如果任务换成MNIST,输出层需要多少神经元,激活函数是什么?再换成第2章中的房价预测,输出层又该怎么变?
  2. 反向传播是什么及其原理?反向传播和逆向autodiff有什么不同?
  3. 列出所有简单MLP中需要调节的超参数?如果MLP过拟合训练数据,如何调节超参数?
  4. 在MNIST数据及上训练一个深度MLP。

使用keras.datasets.mnist.load_data()加载数据,看看能否使准确率超过98%,利用本章介绍的方法(逐步指数级提高学习率,画误差曲线,找到误差升高的点)搜索最佳学习率。保存检查点,使用早停,用TensorBoard画学习曲线的图。

参考答案见附录A。

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 深度学习四大名著之《机器学习实战:基于Scikit-Learn、Keras和TensorFlow》第二版

    《机器学习实战:基于Scikit-Learn、Keras和TensorFlow》第二版

    SeanCheney
  • 使用Anaconda 环境安装 TensorFlow

    本文由 bytebye 创作 本站文章除注明转载/出处外,均为本站原创或翻译,转载前请务必署名

    ByteBye
  • PyTorch常见的坑汇总

    最近刚开始用pytorch不久,陆陆续续踩了不少坑,记录一下,个人感觉应该都是一些很容易遇到的一些坑,也在此比较感谢帮我排坑的小伙伴,持续更新,也祝愿自己遇到的...

    Datawhale
  • 吐血整理!绝不能错过的24个顶级Python库

    事实上,由于Python库种类很多,要跟上其发展速度非常困难。因此,本文介绍了24种涵盖端到端数据科学生命周期的Python库。

    AI算法与图像处理
  • 智能八段锦 app 中的身体动作识别

    OliveX是一家总部位于香港的公司,致力于健身相关软件的开发,自2018年首次推出以来,已为200万用户提供服务。我们的许多用户都是老年人,智能八段锦应用程序...

    云水木石
  • 教程 | 基于LSTM实现手写数字识别

    基于tensorflow,如何实现一个简单的循环神经网络,完成手写数字识别,附完整演示代码。

    OpenCV学堂
  • 具有Keras和Tensorflow Eager的功能性RL

    在此博客文章中,探索了用于实现强化学习(RL)算法的功能范例。范例是开发人员将其算法的数值写为独立的纯函数,然后使用库将其编译为可以大规模训练的策略。分享了如何...

    代码医生工作室
  • 深度学习算法(第25期)----机器翻译中的编码解码器网络

    深度学习算法(第24期)----自然语言处理(NLP)中的Word Embedding 前几期我们一起学习了RNN的很多相关知识,今天我们一起用这些知识,学习下...

    智能算法
  • 在几分钟内构建强大的可用于生产的深度学习视觉模型

    得益于更快的计算,更好的存储和易于使用的软件,基于深度学习的解决方案绝对可以看到从概念验证隧道进入现实世界的曙光!看到深度学习模型已广泛应用于该行业的各个领域,...

    代码医生工作室
  • windows安装tensorflow

    下载可以去官网上下载,直接搜索找与你电脑对应的版本就好,国内清华镜像网站是:https://mirrors.tuna.tsinghua.edu.cn/anaco...

    开发架构二三事

扫码关注云+社区

领取腾讯云代金券