首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

随笔与“At the limits of learning”读后感

这段时间的发文频率越来越低了,今天突然发现我常用的排版工具秀米都需要绑定手机才能继续使用了,于是开篇的狗头没了。

写作是生活的积累,最近积累的少了,表达的也就少了。仔细回忆一下积累变少的原因有二:

原因二免不了与工作相关,做电商的推荐与搜索和做传统内容的推荐与搜索有很多不同之处。对于电商而言,内容变化较少,在提高推荐相关度的同时,一个很重要的环节就是发现有问题的产品和欺骗我们的商家尽快做出反应。

所以前段时间并没有花很多时间研究新的推荐算法,而是看了很多数据,慢慢发现这并非自己喜欢的工作。

虽然积累少了,但是也不是没有什么可以share的新内容。最近在阅读Eugenio Culurciello的Blog,他比较喜欢发表一些关于机器学习的文章,同时也办了一个机器学习芯片公司。

最新的一篇“At the limits of learning”蛮有意思的。现在我们利用深度学习对数据进行学习和预测,和2000年初期我们设计和测试算法的手段很不同。在深度学习流行之前,我们的观察能力和创新能力是算法发明的核心。我们会反复思考如何去解决一个问题,将其分解为“更容易”解决的小问题,然后设计算法,调整参数,测试算法。

随着深度神经网络的成功,大家开始采用非常类似的模型,然后通过修改输入和输出样例,直接从数据中学习。

这样一来,我们不再处于算法设计的中心,更多的工作交给了神经网络。他可以比人做的更好,可以逼近任何函数。有些复杂的功能可能需要上亿参数,没有人脑可以调整那么多参数去找最优解。

有一群科学家在学校里,在公司里不断地挖掘神经网络的潜力,但同时我们也在限制着机器学习的能力。

我们会去选择学习的数据,学习的任务,然后训练模型去解决我们指定的任务。但是当训练结束后,我们只能信任神经网络解决任务的一小部分,或者一定程度上解决任务。我们限制了神经网络的拟合能力。

自从我们开始使用神经网络后,另一个困恼就是选择网络架构。究竟要多少层,每层多少神经元,他们是如何连接的。网络架构的空间是巨大的,他可以用很多卷积层,每层很多参数,Activation Function,Short Pass,Gate等等。我们的选择限制了网络的可能性。

最后,我们决定Loss Function该如何定义,对于给定的数据集,神经网络根据我们设置的函数最后会得到不同的训练结果。这给了我们控制神经网络的强大权利。

由于以上的问题,越来越多的科学家开始研究如何让机器定义最好的解决方案,比方用Reinforcement Learning。通过使用更复杂的模型,感知学习结果然后不断地调整优化方案。

Eugenio讲了另一个有趣的问题,就是大脑。如果把我们的电脑想象成很大的神经网络,经过预先训练“了解世界”,我们可以对环境很好的模拟,然后添加小的分类器,用很少的奖励信号学习解决我们的问题。

如果我们用Reinforcement Learning去训练一个神经网络能够预测周围环境的变化,是不是就能得到一个类似的“大脑”?

Eugenio的文章中给出他们之前做的一些工作,训练了一个神经网络去预测视频里的下一帧的内容。但除了预测未来帧每个像素的内容,预测图像中对象的移动路线,背景分隔会不会更有用呢?

这篇阅读让我想到最近聊过的某无人车公司,也在尝试搭建一个大脑,不断的收集数据进行预训练,觉得这一领域蛮有趣的。但是真正让我感兴趣的并不只是模型本身的架构,而是如何去支持这一模型的训练与推理,等日后有了经验积累再继续讨论。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181015G05QK500?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券