前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >cnn\rnn\LSTM\\自编码\gan

cnn\rnn\LSTM\\自编码\gan

作者头像
bye
发布2020-10-29 15:16:42
5120
发布2020-10-29 15:16:42
举报
文章被收录于专栏:bye漫漫求学路bye漫漫求学路

最近看了莫烦Python的《了解机器学习部分》,虽然讲的内容是基础的,但是,自己总结一下才知道自己是不是记住啦,我总结的可能有错误或者不合适的地方,希望大家及时批评指正啦。https://morvanzhou.github.io/tutorials/machine-learning

一、卷积神经网络cnn

卷积神经网络主要在图像和语音识别方面表现比较出色,卷积就是图像上的各个像素通过卷积核做卷积运算,通过不同大小的卷积核会得到不同大小的结果,当然,如果你想通过卷积核计算后的图片大小仍然与原图像大小一样,可以使用padding = "same",在计算卷积的时候会在原图像周围添加黑边,莫烦讲的是通过对图片上每一块的像素进行处理,也就是说这个卷积核就是一个批量过滤器,滚动的在图片上收集信息,然后得到最终的信息,不断得到更高的信息结构,如边缘等。然后再将这些信息放到全连接层进行分类,得到最终结果。

但我不太能理解他讲的通过每次卷积之后我们得到的是更深度的图片。

那么在每次卷积的时候,都会丢失一些信息,通过池化层可以将筛选layer中有用的信息,也就是说不压缩长宽尽可能保留尽可能多的信息,那么池化层就负责压缩的工作,减轻神经网络的负担。

经典的结构是:图像输入》卷积》池化》卷积》池化》全连接》全连接》分类器

二、循环神经网络rnn

rnn主要用来处理序列数据,主要考虑到数据的关联性,也就是之前的数据分析后,在后面rnn会把之前的也进行分析。

但rnn会对之前的记忆有所遗忘,所以可能会丢失一些信息,在反向误差的时候,每次乘以一个权重,如果权重是一个小于1的小数,不断乘以误差值,最终的误差会非常小,如果权重为1.几不断乘以误差值,误差结果可能无穷大,所以就会出现梯度消失或者梯度爆炸的情况。

三、循环神经网络LSTM

LSTM为了解决rnn的梯度弥散或者梯度爆炸的情况,多加入了三个控制器(输入控制、输出控制、忘记控制),莫烦的解释是下面的:

他多了一个 控制全局的记忆, 我们用粗线代替. 为了方便理解, 我们把粗线想象成电影或游戏当中的 主线剧情. 而原本的 RNN 体系就是 分线剧情. 三个控制器都是在原始的 RNN 体系上, 我们先看 输入方面 , 如果此时的分线剧情对于剧终结果十分重要, 输入控制就会将这个分线剧情按重要程度 写入主线剧情 进行分析. 再看 忘记方面, 如果此时的分线剧情更改了我们对之前剧情的想法, 那么忘记控制就会将之前的某些主线剧情忘记, 按比例替换成现在的新剧情. 所以 主线剧情的更新就取决于输入 和忘记 控制. 最后的输出方面, 输出控制会基于目前的主线剧情和分线剧情判断要输出的到底是什么.基于这些控制机制, LSTM 就像延缓记忆衰退的良药, 可以带来更好的结果.

虽然说的很通俗易懂,但是,我还是觉得没有很好的让我理解这个玩意。

四、自编码

自编码就解释的很简啦,那就是网络只提取重要的的信息,然后得到结果再与原始信息计算误差。

五、gan

前面的网络都有输入数据,gan是一种生成网络,生成数据,其中的就是一种生成对抗,生成器与鉴别器之间的对抗,生成器生成,鉴别器鉴别,将鉴别的结果返回给生成器,生成器根据这次学习经验改进,再重复上面的过程。

六、迁移学习

我理解的就是借鉴现在已经有的神经网络,自己修改修改变成自己需要的

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2019-12-08 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
语音识别
腾讯云语音识别(Automatic Speech Recognition,ASR)是将语音转化成文字的PaaS产品,为企业提供精准而极具性价比的识别服务。被微信、王者荣耀、腾讯视频等大量业务使用,适用于录音质检、会议实时转写、语音输入法等多个场景。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档