前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >TF2.0初体验-使用TF2.0 + Keras构建简单的神经网络

TF2.0初体验-使用TF2.0 + Keras构建简单的神经网络

作者头像
石晓文
发布2019-05-21 22:35:44
1.9K0
发布2019-05-21 22:35:44
举报
文章被收录于专栏:小小挖掘机小小挖掘机

1、安装TF2.0虚拟环境

首先,我们要在电脑里装一个tf2.0的虚拟环境(我的电脑是mac,windows和linux类似)。这里使用anaconda的命令:

代码语言:javascript
复制
conda create --name tf2 python=3.6

注意,后面的python版本最好带上,否则什么库都不给你装。这样,在anaconda的envs路径下,就多了一个tf2的虚拟环境,我们可以使用activate命令激活它:

代码语言:javascript
复制
source activate tf2

也可以使用deactivate来退出环境:

代码语言:javascript
复制
source deactivate tf2

接下来,安装tensorflow的环境,我们首先使用清华源:

代码语言:javascript
复制
sudo pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

然后,安装tf2.0:

代码语言:javascript
复制
sudo pip install tensorflow==2.0.0-alpha

2、创建Jupyter环境

安装了tf2.0的环境还不够,我们还需要把它作为一个kernel加入到jupyter环境中,执行下面两步:

代码语言:javascript
复制
conda install notebook ipykernelsudo python -m ipykernel install --name tf2

接下来,使用jupyter notebook命令启动ipython。环境切换到tf2:

接下来,我们导入tf和keras,看看版本对不对:

代码语言:javascript
复制
import tensorflow as tffrom tensorflow.keras import layers
print(tf.__version__)print(tf.keras.__version__)

输出为:

代码语言:javascript
复制
2.0.0-alpha02.2.4-tf

哈哈,我们的环境算是安装成功了!接下来,我们这里介绍两种建立神经网络的方式,分别是使用tf.keras.Sequential和使用 Keras 函数式 API创建神经网络。

3、使用tf.keras.Sequential创建神经网络

导入数据

这里,我们下载mnist数据集:

代码语言:javascript
复制
(x_train, y_train), (x_test, y_test) = tf.keras.datasets.mnist.load_data()x_train = x_train.reshape([x_train.shape[0], -1])x_test = x_test.reshape([x_test.shape[0], -1])print(x_train.shape, ' ', y_train.shape)print(x_test.shape, ' ', y_test.shape)print(x_train.dtype)

结果为

代码语言:javascript
复制
(60000, 784)   (60000,)(10000, 784)   (10000,)uint8

创建神经网络结构

随后,我们使用tf.keras.Sequential创建神经网络,有两种使用方式:

方式1

代码语言:javascript
复制
model = tf.keras.Sequential()model.add(layers.Dense(64,activation='relu',input_shape=(784,)))model.add(layers.Dense(32,activation='relu',kernel_initializer=tf.keras.initializers.glorot_normal))model.add(layers.Dense(32,activation='relu',kernel_regularizer=tf.keras.regularizers.l2(0.01)))model.add(layers.Dense(10,activation='softmax'))

方式2

代码语言:javascript
复制
model = tf.keras.Sequential([    layers.Dense(64, activation='relu', kernel_initializer='he_normal', input_shape=(784,)),    layers.Dense(64, activation='relu', kernel_initializer='he_normal'),    layers.Dense(64, activation='relu', kernel_initializer='he_normal',kernel_regularizer=tf.keras.regularizers.l2(0.01)),    layers.Dense(10, activation='softmax')])

compile函数

complie函数,主要是来编译我们的模型,代码如下:

代码语言:javascript
复制
model.compile(optimizer=tf.keras.optimizers.Adam(0.001),              loss='sparse_categorical_crossentropy',              metrics=['accuracy'])

可以看到,我们这里主要提供了三个函数,第一个是使用的优化器optimizer;第二个是模型的损失函数,这里使用的是sparse_categorical_crossentropy,当然也可以写成loss=tf.keras.losses.SparseCategoricalCrossentropy(),但是!但是!后一种写法,在使用save方法保存和加载模型的时候,是会报错的,所以推荐使用字符串的写法;第三个参数是模型评估的方式,这里我们使用正确率来评估模型,当然也可以添加更多。

可以通过model.summary()来查看构建的模型:

使用fit函数训练模型

接下来,使用fit函数训练模型

代码语言:javascript
复制
history = model.fit(x_train, y_train, batch_size=256, epochs=100, validation_split=0.3, verbose=0)

这里,我们加入了验证集,batch_size设置为256,并用history来保存了结果。

绘制accuracy曲线

来看看history里面都有什么把,运行history.__dict__。有一个关键的key是history,保留了每一步的loss、accuracy、val_loss、val_accuracy。我们直接可以使用history.history['accuracy']来访问每一步训练集的准确率,因此我们可以简单的将其绘制成图:

代码语言:javascript
复制
import matplotlib.pyplot as pltplt.plot(history.history['accuracy'])plt.plot(history.history['val_accuracy'])plt.legend(['training', 'validation'], loc='upper left')plt.show()

要注意的是,之所以会有accuracy,是因为在compile函数中加入了metrics=['accuracy'],之所以会有val_loss和val_accuracy,是因为我们在fit函数中加入了validation_split=0.3。

使用evaluate进行模型的评测

最后,使用evaluate进行模型的评测:

代码语言:javascript
复制
results = model.evaluate(x_test,y_test)

结果如下:

4、使用Keras 函数式 API创建神经网络

使用tf.keras.Sequential是层的简单堆叠,无法表示任意模型,如具有非序列数据流的模型(例如,残差连接)。而使用Keras 函数式 API则可以。在使用Keras 函数式 API时,层实例可调用并返回张量。 而输入张量和输出张量用于定义 tf.keras.Model 实例。

构建模型

代码语言:javascript
复制
input_x = tf.keras.Input(shape=(784,))hidden1 = layers.Dense(64, activation='relu', kernel_initializer='he_normal')(input_x)hidden2 = layers.Dense(64, activation='relu', kernel_initializer='he_normal')(hidden1)hidden3 = layers.Dense(64, activation='relu', kernel_initializer='he_normal',kernel_regularizer=tf.keras.regularizers.l2(0.01))(hidden2)output = layers.Dense(10, activation='softmax')(hidden3)
model2 = tf.keras.Model(inputs = input_x,outputs = output)

模型训练

后面的过程就跟前面一样了,不再赘述,直接上代码:

代码语言:javascript
复制
model2.compile(optimizer=tf.keras.optimizers.Adam(0.001),              #loss=tf.keras.losses.SparseCategoricalCrossentropy(),               loss='sparse_categorical_crossentropy',              metrics=['accuracy'])history = model2.fit(x_train, y_train, batch_size=256, epochs=100, validation_split=0.3, verbose=0)import matplotlib.pyplot as pltplt.plot(history.history['accuracy'])plt.plot(history.history['val_accuracy'])plt.legend(['training', 'validation'], loc='upper left')plt.show()

5、模型的保存和加载

使用save和tf.keras.models.load_model保存和加载模型:

代码语言:javascript
复制
model.save('model.h5')model1 = tf.keras.models.load_model('model.h5')results = model1.evaluate(x_test,y_test)

6、添加BN和Dropout

接下来,我们构建一个更复杂的网络,在里面加入BN和Dropout:

代码语言:javascript
复制
model4 = tf.keras.Sequential([    layers.Dense(64, activation='relu', input_shape=(784,)),    layers.BatchNormalization(),    layers.Dropout(0.2),    layers.Dense(64, activation='relu'),    layers.BatchNormalization(),    layers.Dropout(0.2),    layers.Dense(64, activation='relu'),    layers.BatchNormalization(),    layers.Dropout(0.2),    layers.Dense(10, activation='softmax')])model4.compile(optimizer=tf.keras.optimizers.Adam(0.001),             loss='sparse_categorical_crossentropy',             metrics=['accuracy'])
model4.compile(optimizer=tf.keras.optimizers.Adam(0.001),              #loss=tf.keras.losses.SparseCategoricalCrossentropy(),               loss='sparse_categorical_crossentropy',              metrics=['accuracy'])
history = model4.fit(x_train, y_train, batch_size=256, epochs=100, validation_split=0.3, verbose=0)import matplotlib.pyplot as pltplt.plot(history.history['accuracy'])plt.plot(history.history['val_accuracy'])plt.legend(['training', 'validation'], loc='upper left')plt.show()

这个添加BN和Dropout的方式真的是太简单了。。写到这里,我有点拿不准了,先BN还是先Dropout呢?再进一步,Relu、BN和Dropout的顺序是怎样的呢?

7、思考-先BN还是先Relu?

在想这个问题之前,我一直认为的顺序是Relu->BN->Dropout,Dropout的顺序是最后一个应该是没有疑问的,关键是Relu和BN的顺序。更扩展点,是BN和非线性激活函数的关系。

关于这个问题,论文中给出的是先BN,后面接非线性激活函数。但实际中,也有人主张先非线性激活函数,再是BN。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-05-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 小小挖掘机 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 2、创建Jupyter环境
  • 3、使用tf.keras.Sequential创建神经网络
    • 导入数据
      • 创建神经网络结构
        • compile函数
          • 使用fit函数训练模型
            • 绘制accuracy曲线
              • 使用evaluate进行模型的评测
              • 4、使用Keras 函数式 API创建神经网络
                • 构建模型
                  • 模型训练
                  • 5、模型的保存和加载
                  • 6、添加BN和Dropout
                  • 7、思考-先BN还是先Relu?
                  领券
                  问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档