动态 | Yann LeCun爆惊人言论:深度学习已死?

AI科技评论按:深度学习领域最知名的学者之一 Yann LeCun 今日在自己facebook 上发表的一篇短文,瞬间引爆了人工智能关注者们的朋友圈。这条动态讲的是什么呢?为何会引起如此轩然大波?

LeCun的Facebook截图

我们常常提到的深度学习是全部深度学习算法的总称,卷积神经网络是深度学习算法在图像处理领域的一个应用。而 Yann LeCun 就是卷积神经网络的发明者,也被称之为「卷积神经网络之父」。卷积神经网络的出现对人工智能发展的重要性不必多说。而这次 Yann LeCun 的推文传播如此之快,是不是有比「卷积神经网络」更重大的学术成果出来了?为了使国内读者了解到推文内容,AI 科技评论对推文进行了编译。

首先开头是一句极具有标题党风格的英法混合语:

Deep Learning est mort. Vive Differentiable Programming!

翻译成中文就是:深度学习已死,可微分编程万岁!

为何突出此言?深度学习算法是人工智能多个领域的底层框架,怎么就死了呢?接着往下看发现 LeCun 说的是「深度学习」这个词已死,该有新的名词来替代它了。

LeCun 提到的新词是「可微分编程」。

他在推文中解释道「可微分编程」不过是把现代深度学习技术重新换了个叫法,这就跟当年神经网络还只有两个以上隐藏层时就被称为「深度学习」差不多。对于现代深度学习技术,「深度学习」这个词已经不够用了。

他又写道:

但重点的是,人们现在正通过组装参数化功能模块网络,构建一种新软件,并用某种基于梯度优化的方法来训练它们。 越来越多的人正在以一种依赖于数据的方式(循环和条件)来程序化定义网络,让它们随着输入数据的动态变化而变化。这与普通的程序非常类似,除了前者是参数化的、可以自动可微分,并且可以训练和优化。动态网络变得越来越流行(尤其是对于 NLP),这要归功于 PyTorch 和 Chainer 等深度学习框架(注意:早在 1994 年,深度学习框架 Lush,就能处理一种称为 Graph Transformer Networks 的特殊动态网络,用于文本识别)。 现在人们正在积极研究开发命令式可微分编程语言编译器,这对开发基于学习的 AI(learning-based AI)来说是一条非常令人兴奋的途径。

最后,LeCun 还特别强调将「深度学习」改名为「可微分编程」还不够,还需要其他的概念,比如「预测性学习」应该改为「Imputative Learning」。他说稍后会谈更多......

让我们一起来关注 LeCun 的最新动态吧!

本文分享自微信公众号 - AI科技评论(aitechtalk)

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2018-01-06

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏AI科技评论

Ian Goodfellow & ICLR-17最佳论文得主新作:验证与测试,机器学习的两大挑战

AI 科技评论按:去年年底,Ian Goodfellow与Nicolas Papernot(是的,就是ICLR 2017的最佳论文得主之一)合作开了一个博客叫c...

33860
来自专栏深度学习

机器学习中的七大经典问题

这是最有名错误判断,现在的教科书几乎已经不再有这样的结论,但如果看15年、20年前的机器学习教科书,会有一个很有趣的结论:神经网络不能超过三层。这和我们现在说的...

459120
来自专栏新智元

神经网络通俗指南:一文看懂神经网络工作原理

【新智元导读】 本文带来对深度神经网络的通俗介绍,附动图展示。 现在谈人工智能已经绕不开“神经网络”这个词了。人造神经网络粗线条地模拟人脑,使得计算机能够从数据...

40750
来自专栏新智元

纽约大学联合谷歌大脑提出「COG」数据集,可提高系统的「视觉推理」能力

【新智元导读】在认知心理学和神经科学中丰富的视觉推理和记忆传统的启发下,我们开发了一个人工的、可配置的视觉问题和答案数据集(COG),用于在人类和动物中进行平行...

340110
来自专栏AI科技评论

动态 | 邀请函or挑战书?OpenAI喊你来研究7个AI未解问题啦

AI 科技评论按:OpenAI 昨日发布一篇博客,介绍了 7 个自己近期在研究但尚未解决的问题,希望邀请到外部的研究者一同参与研究、做出进展。OpenAI 尤其...

35090
来自专栏机器之心

120万美元机器24分钟训练ImageNet,UC Berkeley展示全新并行处理方法

选自UC Berkeley 机器之心编译 参与:李泽南、蒋思源 今年 6 月,Facebook 实现 1 小时训练 ImageNet 的成绩之后,通过增加批量大...

30070
来自专栏量子位

224秒!ImageNet上训练ResNet-50最佳战绩出炉,索尼下血本破纪录

刚刚,索尼在arXiv上发文宣布:他们用224秒在ImageNet上完成了ResNet-50训练,没有明显的准确率损失。

13620
来自专栏华章科技

从基础概念到数学公式,这是一份520页的机器学习笔记(图文并茂)

图解机器学习 正是对机器学习的过程中的痛苦有切身体会,我希望能做一份教程,以浅显易懂的方式去讲解它,降低大家的学习门槛。我为此花费了数月时间,经常做到...

17230
来自专栏AI科技评论

CVPR2016 | 李飞飞实验室论文:视频中人物的可视化指南

GAIR 今年夏天,雷锋网将在深圳举办一场盛况空前的“全球人工智能与机器人峰会”(简称CCF-GAIR)。大会现场,谷歌,DeepMind,Uber,微软等巨头...

387120
来自专栏AI科技评论

谷歌大脑发布神经网络的「核磁共振」,并公开相关代码

作者:杨晓凡、camel、思颖、杨文 AI 科技评论按:神经网络的可解释性一直是所有研究人员心头的一团乌云。传统的尝试进行可解释性研究的方法是通过查看网络中哪个...

30880

扫码关注云+社区

领取腾讯云代金券