10月AI热文:强化学习、定制合成人脸、道德机器等


新智元报道

来源:blog.sicara.com

作者:Antoine Ogier 编译:肖琴

【新智元导读】10月最热的10篇AI相关文章,介绍谷歌、OpenAI、MIT等的最新研究,以及AI道德判断、算法偏见等受关注话题。

1. 谷歌如何利用强化学习来提出正确的问题

当搜索引擎找不到你想要的答案时,你会怎么做?你会试着重新组织提问吧。

谷歌正试图通过新的Active Question Answering(Active QA)智能体来模仿这一点,这是一个使用强化学习来训练AI进行问答的系统。当你提出一个问题时,它会产生很多有相似含义的问题。它会搜索所有问题的答案,然后选择最好的答案返回给你。

这有助于聊天机器人取得进步。与其让你在它们不明白的时候重新组织措辞提问,不如让它们自己去做!

而且,它是开源的。

阅读:

What’s New in Deep Learning Research: How Google Uses Reinforcement Learning to Ask All the Right Questions— from Jesus Rodriguez

https://towardsdatascience.com/whats-new-in-deep-learning-research-how-google-uses-reinforcement-learning-to-ask-all-the-right-69c172f113c4

2. OpenAI新方法教AI如何学习

通常,当我们训练AI去执行某项任务时,我们需要用某种方法来告诉它做得有多好,或者至少向它展示一些任务做得很好的例子。

但是,对于难以评估性能的、高度复杂的任务,该怎么做呢?有时候,即使是人类也无法向AI展示如何做某事——比如管理整个城市的交通系统。

OpenAI提出一种新方法使AI能够将任务分解为更小的子任务,称为“迭代扩增”(Iterated Amplification)。然后,它会要求人类对这些子任务提供demo。基于此,它可以独立解决大任务。

这项技术还处于非常早期的阶段,但由于它来自OpenAI,接下来几个月应该会有更新,保持关注。

阅读:

Learning Complex Goals with Iterated Amplification — from OpenAI

https://blog.openai.com/amplifying-ai-training/

3、MIT道德机器

自动驾驶汽车相关的一个主要问题是,它们最终将不得不做出连人类都无法做决定的道德选择。

如果不避让就会撞上一群人,避让就会撞上另一个人,它应该避开人群吗?它应该保护乘客,还是保护行人?它应该保护年轻人还是老年人?尽管这些情况极为罕见,但很显然,这些情况确实有可能发生。

MIT媒体实验室的这篇文章分析了道德机器(Moral Machine)的结果,他们做了一个实验,调查了数百万人针对这些情况的决策。

答案因国家而异。例如,西方国家的人比东方国家的人更倾向于选择保护年轻人。

现在就考虑这些问题是很有必要的,因为在某些时候,汽车制造商和程序员将不得不做这样的决策:一旦自动驾驶汽车面临两个都很糟糕的结果,它无法拒绝选择。

阅读:

Should a self-driving car kill the baby or the grandma? Depends on where you’re from— from MIT Media Lab

Nature大型调查:当AI遭遇电车难题,它将拯救谁?

https://www.technologyreview.com/s/612341/a-global-ethics-study-aims-to-help-ai-solve-the-self-driving-trolley-problem/

4. 带答案的图表

制作有助于理解数据集的图表是很困难的。当存在很多变量和数据点时,任何可视化的尝试都可能令人感到混乱、不完整和误导性。

这篇文章提出一个解决办法:当你做图表时,问自己一个你想要它回答的问题

通过确保你的图表有一个清晰的焦点,可以避免图形过于笼统——从而导致无用。

在这篇文章中,作者将引导你完成探索一个数据集的过程,每次一个问题。其中有些图表能让你感觉自己非常了解这些数据。

阅读:

Ask the Question, Visualize the Answer — from FlowingData

https://flowingdata.com/2018/10/17/ask-the-question-visualize-the-answer/

5. 从好奇到拖延

在强化学习中,AI学会与环境进行交互,并在表现良好时获得奖励。利用这些奖励,它能学习如何执行任务,例如玩游戏或在迷宫中寻找物品。

但有时候奖励很难获取,在得到下一个奖励之前,AI不知道它是否做得很好。对这种情况的解决方案之一是引入好奇心(curiosity),有好奇心的情况下,AI会因为发现新事物而奖励自己。

这通常会产生奇妙的效果,但谷歌AI的研究人员这次尝试了不同的方法:他们在迷宫中放置了一个具有好奇心的AI,并放了一台电视机和遥控器。

猜猜发生了什么:AI一直呆在电视机前,不停切换频道!它学会了拖延。

这其实很有道理:对于AI来说,新频道是一种“新东西”,因此不断切换频道对它的好奇心是非常有益的。

也许有时候让AI过于人性化不是一个好主意:)

阅读:

Curiosity and Procrastination in Reinforcement Learning— from Google’s AI blog

ai.googleblog.com/2018/10/curiosity-and-procrastination-in.html

6. 如何画猫?

Quick, Draw!是Google开发的一个AI小游戏,它要求你随便画一些东西,然后AI会识别你画的东西。这个小游戏产生了一个巨大的数据集,来自世界各地的人们绘制了超过5000万张画。

这篇文章探讨了可视化这个有趣的数据集的一种聪明的方法。你知道美国人画的冰淇淋甜筒是一勺的,而意大利人画的是三勺吗?你能想到人们画瑜伽姿势会画出多少种方式吗?

使用像t-sne和autoencoders这样的方法,我们可以把这些杂乱无章的图像转换成地图。有了它,我们可以探索更多这样的模式。

阅读:

Machine Learning for Visualization—from Ian Johnson

https://medium.com/@enjalot/machine-learning-for-visualization-927a9dff1cab

7. 亚马逊的性别歧视人工智能

亚马逊最近试图使用机器学习,通过分析求职者的简历来选择参加面试的候选人。事情进行得并不顺利。

简单的说,该算法分析了过去的招聘数据——男性的比例普遍过高——得出的结论是,女性真的不太可能被聘用,因此它将女性的简历放在不利的地位。

这是各种各样推荐系统的常见缺陷,但最近的新闻表明,即使是拥有大量资源的大公司也会上当。

好消息是,这种情况已经结束了,所以你大可以提交申请,不用担心性别歧视。但这是一个很好的提醒,提醒我们机器学习系统经常受到数据的影响。

据路透社报道,亚马逊弃用了对女性有偏见的AI招聘工具。

阅读:

Amazon scraps secret AI recruiting tool that showed bias against women— from Reuters

https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G

8. 不确定性问题

有时候,仅仅知道你平均来看击中了中心是不够的,你需要知道每一次射击的结果离中心有多近。评估置信度对于好的预测是至关重要的。

今年1月,数据分析师Erik Bernhardsson决定为他所做的每一个预测提供不确定性估计。

实验结束后,他发表了这份指南,提供了简单的方法和代码来估计不确定性。如果你想学习如何在不需深入复杂数学的情况下做到这一点,看这篇文章就好了!

阅读:

The hacker’s guide to uncertainty estimates — from Erik Bernhardsson

https://erikbern.com/2018/10/08/the-hackers-guide-to-uncertainty-estimates.html

9. 定制合成人脸

你可能已经听说过生成对抗网络(GAN)被用于生成人脸,或改变人脸的特征,例如使其看起来更年老。

在这篇文章中,作者更进了一步。除了生成人脸之外,他的系统还可以学习连续修改任何一种面部特征。

这很厉害。大多数现有模型只学习执行一次转换(利用从年轻变成年老,从女人变成男人):转换的类型和范围都是固定的。任何改变都需要对模型和新数据集全面地进行重新训练。

在这个研究中,一旦系统被训练好,你可以很方便地添加新的可修改特性。另外,你可以做任何程度的改变——无论你想让脸看起来更年轻一点还是更年老一点,都可以做到。

感兴趣吗?请看这个令人印象深刻的演示:

阅读:

Generating custom photo-realistic faces using AI — from Shaobo GUAN

https://blog.insightdatascience.com/generating-custom-photo-realistic-faces-using-ai

10. 发现假视频

“我们正在进入一个时代,在这个时代里,我们的敌人可以制造让任何人在任何时候说任何话的视频,并且让它看起来像真实的。”美国前总统奥巴马(Barack Obama)从未说过这话。这是一个假视频演示的。

这只是deepfake(人工智能生成的假视频)的一个例子。这些假视频难以置信地令人信服,虽然有些很有趣,但它们也可以被用来实施欺骗和传播虚假信息。

在这篇文章中,研究人员解释了他们发现的检测deepfakes假视频的方法。从检查人物眨眼的方式到检查压缩率,仍有一些信息会暴露deepfakes。

但这场斗争是永无止境的。一旦发现了假视频的缺陷,deepfake的制造者就会采取行动进行纠正。为了领先一步,必须持续研究。

阅读:

These new tricks can outsmart deepfake videos — for now — from Wired

https://www.wired.com/story/these-new-tricks-can-outsmart-deepfake-videosfor-now

原文发布于微信公众号 - 新智元(AI_era)

原文发表时间:2018-11-10

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏人工智能头条

五月人工智能博文Top10

842
来自专栏互联网数据官iCDO

用数据讲故事的诀窍 ——创建有说服力图表的5个步骤

用数据说话是当今社会的一个特别流行的词,它反映了当今人类面对这个信息爆炸时代所需要做出的必然的改变。 有预测截至2020年,整个数字世界的数据量将达到44ZB,...

4169
来自专栏大数据挖掘DT机器学习

从小白到年薪10万+,优秀的数据分析能力如何速成?

广泛被应用的数据分析 谷歌的数据分析可以预测一个地区即将爆发的流感,从而进行针对性的预防;淘宝可以根据你浏览和消费的数据进行分析,为你精准推荐商品;口碑极好的网...

4286
来自专栏机器之心

从GPU、TPU到FPGA及其它:一文读懂神经网络硬件平台战局

4814
来自专栏人工智能头条

2015人工智能重大突破

1843
来自专栏新智元

【前沿】CMU研发算法透明化系统,点亮机器学习黑箱

【新智元导读】现在的机器学习系统并不是完全安全可靠的,这不仅是因为我们无从得知黑盒子里发生的事情,还因为用人类生成的数据训练机器,难免会把人类的偏见和固有缺陷也...

2494
来自专栏机器人网

这个机器人太牛了,陌生物体抓取识别成功率高达100%

给杂货拆包是一件简单但乏味的工作:手伸进包里,摸索着找到一件东西,然后把它拿出来。简单瞄一眼之后,你会了解这是什么东西,它应该存放在哪里 如今,麻省理工学院和普...

4138
来自专栏华章科技

生命的意义是什么? 谷歌机器人的答案:为了永生

据英国每日邮报报道,当英国剧作家道格拉斯•亚当斯(Douglas Adams)写《银河系漫游指南》时,他写道这样一句话:“有关生命、宇宙和万物的终极问题的答案是...

1052
来自专栏大数据文摘

全方位搜集汪星人行为数据,让AI学做一只狗 | 华盛顿大学最新研究

2085
来自专栏量子位

分享实录 | 第四范式程晓澄:机器学习在推荐系统中的应用

主讲人:程晓澄 | 第四范式资深算法科学家 屈鑫 整理编辑 量子位 出品 | 公众号 QbitAI 9月20日晚,量子位邀请到第四范式资深算法科学家程晓澄,他以...

3595

扫码关注云+社区

领取腾讯云代金券