前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >谷歌大脑深度学习从入门到精通视频课程[1.4]:前馈神经网络——多层神经网络

谷歌大脑深度学习从入门到精通视频课程[1.4]:前馈神经网络——多层神经网络

作者头像
AI科技大本营
发布2018-04-26 11:16:10
5610
发布2018-04-26 11:16:10
举报

AI100 已经引入 Hugo Larochelle 教授的深度学习课程,会每天在公众号中推送一到两节课,并且对视频中的 PPT 进行讲解。课后,我们会设计一系列的问题来巩固课程中的知识。本节课是 Hugo Larochelle 教授深度学习的第四节课。

课程主要内容

  1. 回顾上一节课的内容。(P2)
  2. 讨论只有一个隐藏层的神经网络。(P3)
  3. 讨论多分类问题。(P4)
  4. 讨论具有多个隐藏层的神经网络。(P5)
视频内容

PPT 解释如下:

P1. 首页

P2. 回顾上一节课的内容,主要讲解了单个神经元不能完成XOR任务。

P3. 首次讨论具有隐藏层的神经网络。首先讲解了输入数据 x 到隐藏层的映射关系(pre-activation),然后讲了隐藏层的激活函数,最后讨论输出层。

P4. 如果我们处理的问题不是一个二分类,而是一个多分类,那么可以使用softmax 函数来进行判断,哪个类别的概率最高,那么神经网络就是指向哪个类别。

P5. 神经网络不单单可以有一个隐藏层,还可以有多个隐藏层。本页就是讨论这个问题。请记住,以后我们遇到的神经网络,大多数都是不止一个隐藏层。所以这一页需要好好消化。

课程作业

我们要解决一个数字十分类问题,即分类数字0,1,2,3,4,5,6,7,8,9十个数字。假设,我们设计的网络是一个四层网络(即一个输入层,两个隐藏层,一个输出层),输入数据为 x ,连接权重依次是 W1,W2,W3,偏差项依次是 b1,b2,b3。两个隐藏层的激活函数都选择 Relu 函数,并有g(·) 来表示。那么最后输出的分类结果 h(x) =___________。

讲师简介

Hugo Larochelle 教授师从 Yoshua Bengio 教授,并且在 Geoffrey Hinton 教授那里做了两年的博士后工作。目前 Hugo Larochelle 教授是 Google Brain 的研究科学家。他在 Youtube 上面的神经网络课程视频讲的深入浅出,非常适合从零开始学习。

本文为 AI100 原创,转载需得到本公众号同意。


本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-02-17,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技大本营 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档