前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >TensorFlow从1到2 | 前言

TensorFlow从1到2 | 前言

作者头像
用户1332428
发布2018-03-08 16:14:25
6130
发布2018-03-08 16:14:25
举报
文章被收录于专栏:人工智能LeadAI人工智能LeadAI

本篇是《TensorFlow从1到2》的前言,本主题将会涵盖现代卷积网络基础,及其TensorFlow实现。

我将延续先前的承诺:

它不会止于翻译和笔记、语言和工具,而是坚持通过启发性的方式,循序渐进构建系统化的理解,搭建一个坚实可靠的、连接“零基础”与“AI/机器学习/深度学习”领域之间的缓坡道。

废话少说,本文的剩余部分仍然提供干货。

学习资源

  • TensorFlow(模型库)(https://www.tensorflow.org/),Google
  • Deep Learning(开源中译版 中文纸质版)(https://exacity.github.io/deeplearningbook-chinese/),Ian Goodfellow,Yoshua Bengio and Aaron Courville
  • CS231n: Convolutional Neural Networks for Visual Recognition(英文讲义 Demos 项目报告 网易云课堂中文字幕)(http://cs231n.stanford.edu/),Fei-Fei Li
  • Deeplearning.ai:Deep Learning(网易云课堂中文字幕)(https://www.coursera.org/specializations/deep-learning),Andrew Ng
  • Neural Networks and Deep Learning(中译版)(http://neuralnetworksanddeeplearning.com/),Micheal Nielsen
  • TensorFlow实战(https://book.douban.com/subject/26974266/),黄文坚,唐源
  • 机器学习(https://book.douban.com/subject/26708119/),周志华
  • 人工智能(https://book.douban.com/subject/27015112/),李开复
  • 终极算法(https://book.douban.com/subject/26931905/),佩德罗·多明戈斯

注:按对主题的影响度排序,持续更新。

历史回顾:深度学习的三次浪潮

第一次浪潮

1943年
  • 第一个正式的神经元模型,Warren McCulloch,Walter Pitts,麦卡洛克-皮茨神经元做不了的事情就是学习;
20世纪50年代
  • 感知器,Frank Rosenblatt;
1969年
  • 线性模型无法解决XOR问题,Minsky,导致了神经网络热潮的第一次大衰退;

第二次浪潮

1980
  • 新认知机,Fukushima 受哺乳动物视觉系统的结构启发,引入了一个处理图片的强大模型架构,它后来成为了现代卷积网络的基础;
1986
  • 反向传播算法,David Rumelhart,Geoffrey E. Hinton,Ronald J. Williams;
1989
  • George Cybenko,证明神经网络的普遍性定理;
1995年
  • 卡内基-梅隆大学的研究员就已经成功训练出一台多层感知器来驾驶汽车,方法就是探测视频图像中的路面,然后适当转动方向盘,其完成了“横穿美国的实验”;
1998年
  • Gradient-based learning applied to document recognition,Yann LeCun and Yoshua Bengio,现代卷积网络开创性论文;
  • LeNet5。
  • 图模型,Jordan,在很多重要任务上实现了很好的效果,导致神经网络热潮的第二次衰退;
1999年
  • 核方法,在很多重要任务上实现了很好的效果,导致神经网络热潮的第二次衰退;
2001年
  • Gradient flow in recurrent nets: the difficulty of learning long-term dependencies,Yoshua Bengio,讨论了“消失的梯度问题”;
2004-2005
  • DARPA大挑战中,无人驾驶汽车才进入公众视野;

第三次浪潮

2006年
  • 《一种深度置信网络的快速学习算法》, Hinton;
  • Yann Lecun,阐述深度学习如何能跟当年流行的图模型(比如条件随机场)等价;
2010年
  • Context-Dependent Pre-trained Deep Neural Networks for Large Vocabulary Speech Recognition,George Dahl,Dong Yu,Li Deng,Alex Acero;
2012年
  • Imagenet classification with deep convolutional neural networks,Alex Krizhevsky,Ilya Sutskever,Geoff Hinton;
  • ImageNet冠军,AlexNet(KSH) 8层;
    • 冠军获得者:Geoff Hinton的博士生Alex Krizhevsky和Ilya Sutskever,将错误率从26.%降到15.3%;
    • Alex和Ilya竞赛用的正是Yann Lecun发明的卷积神经网络,但结果刚出来时,Yann和他的NYU实验室成员甚至没法重复Geoff Hinton的结果;
    • Google团队(包含Andrew Ng和Jeff Dean)做了非公开测试,识别精度比Geoff Hinton差了很多;
    • 工业界对深度学习的追捧传递回学术界发生在一年以后,原因是除了顶级教授因为私人关系能知道工业界最前沿进展,大部分学术界教授并没有公开渠道及时获取信息;
    • 在NIPS(机器学习顶级年度会议),Google竞价超过微软等公司,收购了Alex、Ilya和Geoff刚注册几个月的公司,还花了5000万美元买了三个人的部分时间;
    • Facebook挖了Yann Lecun,他在纽约领导成立了Facebook AI lab;
  • James Bergstra,Yoshua Bengio,对网格搜索超参数进行了综述;
2014年
  • 5月16日,Andrew Ng离开Google加入Baidu;
  • On the number of response regions of deep feed forward networks with piece-wise linear activations,Yoshua Bengio,对于某些问题和网络结构给出了“深度网络在本质上比浅层网络更加强大”的证明;
  • VGG 19层,ImageNet 2014冠军;
  • GoogLeNet,22层,ImageNet 2014冠军;
2015年
  • ResNet,152层,ImageNet 2015冠军;
2016年
  • AlphaGo战胜李世石,人工智能元年开启;
本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-09-15,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 人工智能LeadAI 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 学习资源
    • 1943年
      • 20世纪50年代
        • 1969年
          • 1980
            • 1986
              • 1989
                • 1995年
                  • 1998年
                    • 1999年
                      • 2001年
                        • 2004-2005
                          • 2006年
                            • 2010年
                              • 2012年
                                • 2014年
                                  • 2015年
                                    • 2016年
                                    相关产品与服务
                                    云课堂
                                    云课堂聚焦教培机构 OMO 转型,为机构提供在线及混合式课堂解决方案,极速开课、多向互动、智能沉淀、一键分发,是教培课堂便捷、稳定的教学助手。
                                    领券
                                    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档