首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

TensorFlow深度自动编码器入门实践

包含从头开始构建Autoencoders模型的完整代码。

(关注“我爱计算机视觉”公众号,一个有价值有深度的公众号~)

在本教程中,我们一起来探索一个非监督学习神经网络——Autoencoders(自动编码器)。

自动编码器是用于在输出层再现输入数据的深度神经网络,所以输出层中的神经元的数量与输入层中的神经元的数量完全相同。

如下图所示:

该图像展示了典型的深度自动编码器的结构。自动编码器网络结构的目标是在输出层创建输入的表示,使得两者尽可能接近(相似)。 但是,自动编码器的实际使用是用来得到具有最低数据丢失量的输入数据的压缩版本。 在机器学习项目中的作用类似于主成分分析( Principle Component Analysis,PCA),PCA的作用是在有大量属性的数据集上训练模型时找到最佳和最相关属性。

自动编码器以类似的方式工作。 其编码器部分将输入数据压缩,确保重要数据不会丢失,但数据的整体大小会显著减小。 这个概念称为降维( Dimensionality Reduction)。

降维的缺点是,压缩数据是一个黑盒子,即我们无法确定其压缩后数据中的数据结构的具体含义。 比如,假设我们有一个包含5个参数的数据集,我们在这些数据上训练一个自动编码器。 编码器不会为了获得更好的表示而省略某些参数,它会将参数融合在一起(压缩后的变量时综合变量)以创建压缩版本,使得参数更少(比如从5个压缩到3个)。

自动编码器有两个部分,即编码器和解码器。

编码器压缩输入数据,而解码器则基于压缩表示的数据反过来恢复数据的未压缩版本,以尽可能准确地创建输入的重建。

我们将使用Tensorflow的layers API创建自动编码器神经网络,并在mnist数据集上对其进行测试。

首先,我们导入相关的Python库,并读入mnist数据集。 如果数据集存在于本地计算机上,那么它将自动读取,否则将通过运行以下命令自动下载。

接下来,我们为方便起见创建一些常量,并事先声明我们的激活函数。 mnist数据集中的图像大小为28×28像素,即784像素,我们将其压缩为196像素。 当然你也可以更进一步缩小像素大小。 但是,压缩太多可能会导致自动编码器丢失信息。

现在,我们为每一层的weights 和 biases创建变量。 然后,我们使用先前声明的激活函数创建layer。

在一般情况下,TensorFlow的工程通常不使用tf.variance_scaling_initializer()。 但是,我们在这里使用它是因为我们正在处理不断变化大小的输入。 因此,placeholder张量形状(placeholder用于输入批处理)根据输入大小的形状调整自身,从而防止我们遇到任何维度错误。 通过简单地将先前带有相关weights 和 biases 的隐藏层作为输入输送到激活函数(ReLu)中来创建后面的隐藏层。

我们将使用RMSE损失函数用于此神经网络并将其传递给Adam优化器。你也可以替换这些来获得更多结果。

最后,我们将编写一个小的绘图函数来绘制原始图像和重建图,以查看我们训练得到的模型的工作情况。

在这里,我们可以看到重建并不完美,但非常接近原始图像。 注意上图中,2的重建看起来像是3,这是由于压缩时信息丢失造成的。

我们可以通过超参数调整来改进自动编码器模型,并且还可以通过在GPU上运行训练来提高速度。

获取完整代码,请访问:

https://github.com/Tathagatd96/Deep-Autoencoder-using-Tensorflow

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180801G0ZWOE00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券