前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >深度学习入门:用MNIST完成Autoencoder

深度学习入门:用MNIST完成Autoencoder

作者头像
Python中文社区
发布2018-01-31 17:49:30
1.4K0
发布2018-01-31 17:49:30
举报
文章被收录于专栏:Python中文社区Python中文社区

專 欄

那只猫,Python中文社区专栏作者,Python中文社区新Logo设计人,纯种非CS科班数据分析人,沉迷Keras。在Cambridge做了点小事,深度学习的小学生。❈

Abstract: 用Tensorflow完成Autoencoder的实现,简单介绍了一下什么是Autoencoder以及Autoencoder的应用。再简单介绍了一下VAE,VAE相关代码放在Python中文社区的Github中。

Autoencoder基本是Deep Learning最经典的东西,也是入门的必经之路。Autoencoder是一种数据的压缩算法,其中数据的压缩和解压缩函数必须是数据相关的,有损的,从样本中自动学习的。在大部分提到自动编码器的场合,压缩和解压缩的函数是通过神经网络实现的。

在这里,我来给大家完成一个MNIST数据集的Autoencoder

首先下载MNIST数据,在这里友情提醒一下,MNIST的数据集因为某些原因,下载速度非常的慢,在这里推荐去THE MNIST DATABASE下载。下载完成后建一个MNIST_data的文件夹,放进去。

在这里提一下,为什么我们要将图片设置为28*28?

28*28的特征图大小可以防止输入的连接掉到边界之外,不导致梯度损失。

大家觉得自编码器可以在没有标签的时候学习到数据的有用表达。但是,自编码器并不是一个真正的Unsupervised Learning的算法,而是一个Self-Supervised Learning算法。并且,Self-Supervised Learning是Supervised Learning的一个部分,其标签产生自输入数据。

要获得一个自监督的模型,你需要想出一个靠谱的目标函数和一个损失函数。我们首先将Autoencoder用这些图片来训练,得到784长度的向量。同时这些数据集的图像已经完成了归一化,也就是说要么是一,要么是零。首先我们先建立一个单层ReLu隐藏层来完成一个很简单的Autoencoder,这一层是用来做压缩的。然后encoder就是输入层和隐藏层,decoder是隐藏层和输出层。这句话比较难理解,就是输入层进行输入,经中间的隐藏层来进行一些变换,隐藏层为encoder和decoder共有。而后至输出层得到结果,然而由于我们将图像正则化了,所以我们需要在输出层上加一个Sigmoid函数来获得结果。

对了,在这里解释一下为啥是784:

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-08-03,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Python中文社区 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档