Keras入门必看教程

导语:在这篇 Keras 教程中, 你将学到如何用 Python 建立一个卷积神经网络!事实上, 我们将利用著名的 MNIST 数据集, 训练一个准确度超过 99% 的手写数字分类器.

开始之前, 请注意, 本指南是面向对应用深度学习感兴趣的初学者的.

我们旨在向你介绍一个最流行的同时也是功能最强大的, 用于建立神经网络的 Python 库. 这意味着我们将跳过许多理论与数学知识, 但我们还是会向你推荐一些学习这些的极好的资源.

开始之前

推荐的预备知识

本指南推荐的预备知识有:

  • 机器学习的基本概念
  • Python 编程技能

为了能快速开始, 我们假设你已经具备了这方面的知识.

为什么要用 Keras?

Keras 是我们推荐的 Python 深度学习库, 尤其是对于初学者而言. 它很简约, 模块化的方法使建立并运行神经网络变得轻巧. 你可以在这里读到更多关于 Keras 的内容:

  • Keras, Python 的深度学习库

深度学习究竟是什么?

深度学习是指具有多隐层的神经网络, 其可以学习输入数据的抽象表示. 这个定义显然太简单了, 但对于现在的我们来说, 却是最有实际意义的.

比方说, 深度学习促进了计算机视觉的巨大进步. 现在, 我们能够对图片进行分类, 识别图片中的物体, 甚至给图片打标签. 要实现这些, 多隐层的深度神经网络可以从原始输入图片中按序学习更复杂的特征:

  • 第一层隐层也许只能学习到局部边缘模式.
  • 之后, 每一个后续层 (或过滤器) 将学习更复杂的表示.
  • 最后, 最后一层可以对图片进行分类, 是猫还是袋鼠.

这类深度神经网络就称为卷积神经网络.

卷积神经网络究竟是什么?

简而言之, 卷积神经网络 (CNN) 就是将输入数据假设成图的多层神经网络 (有些时候, 会有多达 17 甚至更多层).

通过实现这个需求, CNN 可以大大减少需要调整的参数数量. 因此, CNN 可以高效处理高维原始图片.

卷积神经网络的底层机制已经超过了本教程的范围, 更多请看这里.

本教程不是什么:

这不是一门深度学习的完整课程. 相反地, 本教程旨在带你从零到一, 尽量”无痛”地建立卷积神经网络!

如果你有兴趣掌握深度学习背后的理论, 强烈推荐斯坦福大学的这门课:

  • CS231n: Convolutional Neural Networks for Visual Recognition

开始前的小提示:

我们试着让教程尽可能流线化, 这意味着任何一个主题, 我们都不会太深究细节. 万一你想要学习关于一个函数或模块更多的知识, 同时打开 Keras 文档 很有帮助.

Keras 教程目录

下面是创建你的第一个卷积神经网络 (CNN) 的步骤:

  1. 配置环境
  2. 安装 Keras
  3. 导入库和模块
  4. 从 MNIST 导入图片数据
  5. 预处理输入数据
  6. 预处理类标签
  7. 定义模型架构
  8. 编译模型
  9. 用训练数据拟合模型
  10. 用测试数据评估模型

第一步: 配置环境

首先, 挂一张励志海报:

可能没什么用- -.

然后, 确保你的计算机上已经安装了以下软件:

  • Python 2.7+ (Python 3 也可以, 但总体而言, Python 2.7 在数据科学领域依旧更受欢迎.)
  • Scipy 和 NumPy
  • Matplotlib (可选的, 推荐用于探索性分析)
  • Theano* (安装指南)

强烈建议使用 Anaconda 发行版 来安装 Python, NumPy, SciPy. 它自带所有这些包.

注意: 用 TensorFlow 也可以 (作为 Theano 的替代), 但我们将坚持使用 Theano, 以保持程序足够简单. 使用 TensorFlow 和 Theano 的主要区别在于, 数据输入神经网络之前, 需要简单地重塑.

你可以检查一下是否都正确安装了:

打开命令行窗口 (Mac 上是 Terminal), 并输入:

你将看到 Python 解释器:

然后, 可以导入上述库并打印版本信息:

第二步: 安装 Keras

如果我们没有涵盖如何安装 Keras, 这就不是一篇 Keras 的教程.

好消息是, 如果你使用的 Anaconda, 你已经安装好了一个超赞的包管理系统: pip.

你可以在命令行输入 $ pip 确认安装. 这条命令将打印一个命令和选项的列表. 如果你还没有安装 pip, 参照这里进行安装.

安装好 pip 之后, 安装 Keras 就很简单了:

同样地, 你可以确认是否正确安装:

哎呀, 看起来好像 Keras 版本太低了. 版本升级也很简单:

完美, 现在就可以开始了, 新建一个 Python 文件, 命名为 keras_cnn_example.py.

第三步: 导入库和模块

首先, 导入 numpy 并设置伪随机数生成器设置种子. 这允许我们从脚本中重现结果:

然后, 从 Keras 中导入 Sequential 模块. 它是一个神经网络层的线性栈, 完美适配本教程将建立的前馈 CNN 类型.

然后, 从 Keras 中导入 “核心” 层. 这些是几乎所有神经网络都会用到的层:

接下来, 我们从 Keras 中导入 CNN 层. 这些是卷积层, 将帮助我们有效地训练图片数据:

最后, 导入一下工具. 这将为我们之后的数据转换提供帮助:

现在, 我们有了建立神经网络架构所需的一切.

第四步: 从 MNIST 加载图片数据

MNIST 是深度学习和计算机视觉入门很好的数据集. 它很大, 这对于神经网络是一个巨大的挑战, 但它在单台计算机上又是可管理的. 我们将在另一个文章中对此进行更多的讨论: 6 Fun Machine Learning Projects for Beginners.

很方便的是, Keras 库已经包含了 MNIST. 可以像这样加载它:

看一下数据集的形状:

很好, 看来我们的训练集中有 60000 个样本, 每张图片都是 28*28 像素大小的. 我们可以用 matplotlib 绘制第一个样例进行确认:

输出的图片是这样的:

总的来说, 做计算机视觉的, 在进行任何算法工作之前, 可视地绘制数据很有帮助. 这是一个快速明智的检查, 可以防止可避免的错误 (比如对数据维度的误解).

第五步: 输入数据预处理

在后端使用 Theano 时, 你必须显式地声明一个维度, 用于表示输入图片的深度. 举个例子, 一幅带有 RGB 3 个通道的全彩图片, 深度为 3.

MNIST 图片的深度为 1, 因此必须显式地进行声明.

换言之, 我们要将数据集从 (n, width, height) 转换成 (n, depth, width, height).

可以简单地实现:

可以再次打印 X_train 的维度, 进行确认:

输入数据最后的预处理步骤是, 将数据类型转换成 float32, 并且进行标准化, 使值落在 [0, 1] 区间内.

现在, 模型训练的输入数据就已经准备好了.

第六步: 预处理类标签

接下来, 让我们看一下类标签数据的形状:

呃…可能有点问题. 我们应该有 10 个不同的类型, 每一个类代表一个数字, 但是看起来, 现在只有一个 1 维数组. 再来看下前 10 个训练样本的标签:

问题依旧. y_train 和 y_test 数据并没有被分成 10 个不同的类标签, 而是被表示成一个类型值的单一数组.

对此, 我们可以进行简单的修正:

再看一眼:

好多了!

第七步: 定义模型架构

现在, 我们就可以定义我们的模型架构了. 在实际研发工作中, 研究员会花大量的时间研究模型架构.

在这里, 为了教程的继续, 我们不会讨论理论或数学. 这本身就是复杂的领域, 对于想要深入学习的同学, 建议看一下上文提到的 CS231n 课程.

另外, 刚开始时, 你可以使用现成的例子或者实现紫黯学术论文中已经证明的架构. 这里有一个 Keras 实现样例.

我们先声明一个顺序模型:

然后, 声明一个输入层:

输的形状参数应为形状为 1 的样例. 本例中, 就是 (1, 28, 28), 与每张数字图片的 (depth, width, height) 相对应.

但是前 3 个参数又代表什么呢? 它们分别对应于要使用的卷积过滤器的数量, 每个卷积内核的行数与列数.

注意: 默认情况下, 步长为 (1, 1), 可以用 ‘subsample’ 参数进行调整.

打印当前模型的输出进行确认:

然后, 我们可以像搭积木一样向模型中添加更多的层:

再次声明, 我们不会太深究理论的东西, 但有必要强调一下我们刚刚添加的 Dropout 层. 这是一个规范化模型的方法, 目的是防止过度拟合. 你可以在这里看到更多内容.

MaxPooling2D 是一种减少模型参数数量的方式, 其通过在前一层上滑动一个 2*2 的滤波器, 再从这个 2*2 的滤波器的 4 个值中取最大值.

到目前为止, 对于模型的参数, 我们已经添加了 2 个卷积层. 要完成模型的架构, 让我们添加一个完全连接的层和输出层:

对于 Dense 层, 第一个参数是输出的大小. Keras 会自动处理层间连接.

注意到最后一层的输出大小为 10, 对应于 10 个数字类型.

同时还要注意, 卷积层的权重在传递给完全连接的 Dense 层之前, 必须压平 (维度为 1).

以下是完整的模型架构:

现在, 我们唯一需要做的就是定义损失函数和优化器, 然后就可以对模型进行训练了.

第八步: 编译模型

现在可以轻松一点了, 最难的部分已经过去了.

只需要编译模型, 然后我们就可以训练它了. 编译模型时, 我们需要声明损失函数和优化器 (SGD, Adam 等等).

Keras 有各种各样的 损失函数和开箱即用的优化器.

第九步: 用训练数据进行模型拟合

要拟合模型, 我们需要做的就是声明训练的批次大小以及训练次数, 然后传入训练数据.

简单吗?

你也可以使用各种回调函数来设置提前结束的规则, 保存模型权重, 或记录每次训练的历史.

第十步: 用测试数据评估模型

最后, 可以用测试数据对模型进行评估:

恭喜! 你已经完成了本 Keras 教程.

我们刚刚体验了 Keras 的核心功能, 但也仅仅是体验. 希望通过本教程, 你已经获得了进一步探索 Keras 所有功能的基础.

如果希望继续学习, 我们推荐学习其他的 Keras 样例模型 和斯坦福大学的计算机视觉课程.

完整的代码

以下就是本教程的所有代码, 保存为一个脚本:

原文发布于微信公众号 - IT派(it_pai)

原文发表时间:2017-06-23

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏机器之心

教程 | 从零开始PyTorch项目:YOLO v3目标检测实现(下)

选自Medium 作者:Ayoosh Kathuria 机器之心编译 参与:Panda 前几日,机器之心编译介绍了《从零开始 PyTorch 项目:YOLO v...

2.8K6
来自专栏机器学习算法工程师

史上最详细的XGBoost实战(下)

作者:章华燕 编辑:田 旭 四 XGBoost 参数详解 在运行XGboost之前,必须设置三种类型成熟:general parameters,booster...

1.4K9
来自专栏小小挖掘机

windows下使用word2vec训练维基百科中文语料全攻略!(三)

训练一个聊天机器人的很重要的一步是词向量训练,无论是生成式聊天机器人还是检索式聊天机器人,都需要将文字转化为词向量,时下最火的词向量训练模型是word2vec,...

3735
来自专栏IT派

机器学习实战之Python3实现决策树算法

导语:今天这篇文章也是我们的志愿编辑写出来的文章哦,稳重介绍了如何在python3中实现自己的决策树算法并画出来!另外,小编Tom邀请你一起搞事情! 预备知识:...

4935
来自专栏大数据挖掘DT机器学习

写一只具有识别能力的图片爬虫

在网上看到python做图像识别的相关文章后,真心感觉python的功能实在太强大,因此将这些文章总结一下,建立一下自己的知识体系。 当然了,图像识别这个话题...

5795
来自专栏人工智能头条

Google | 用神经网络作画

912
来自专栏云时之间

什么是自编码?

各位小伙伴们,大家好,今天让我们来如何用神经网络来处理非监督的学习,也就是AutoEncoder,自编码。 首先,我们听到自编码,一定会想到,AutoEncod...

36010
来自专栏云时之间

什么是LSTM

哈喽,大家好,上一次我们了解了什么是卷积神经网络RNN,然后我又加上了我翻译的那一篇文章来简述了一下RNN和LSTM,今天,让我们来详细的了解下什么是LSTM。...

3366
来自专栏量化投资与机器学习

如何使用LSTM网络进行权重正则化来进行时间序列预测

作者 / Jason Brownlee 翻译 / 编辑部翻译组 来源 / http://machinelearningmastery.com 权重正则化是一种对...

6368
来自专栏人工智能

从零开始学人工智能-Python·决策树(三)·节点

作者:射命丸咲Python 与 机器学习 爱好者 知乎专栏:https://zhuanlan.zhihu.com/carefree0910-pyml 个人网站:...

3586

扫码关注云+社区

领取腾讯云代金券