前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【哈佛商业评论】所有AI公司都面临的两难:性能优先还是应用优先?

【哈佛商业评论】所有AI公司都面临的两难:性能优先还是应用优先?

作者头像
新智元
发布2018-03-28 13:13:06
6640
发布2018-03-28 13:13:06
举报
文章被收录于专栏:新智元新智元

【新智元导读】哈佛商业周刊最新的一篇评论文章指出,和人类参与不同工作有不同胜任标准一样,机器何时可以从内部训练转为在真实工作环境中学习的标准也不一样。对于AI公司来说,首先需要搞清楚自己和客户对于错误的容忍度是什么,然后要问自己:在真实环境中获取客户数据有多么重要?最终,需要找到一个产品训练时长和投入真实环境后潜在风险的平衡点。

不同工作,对错误的容忍度不同

麦当劳的收银员不需要太多培训就能上岗。即使是上班第一天,大多数收银员也能胜任工作。工作时间越长,他们就越有经验。虽然新人可能有些慢,比起老员工,错误会多一些,但整体来说,大家都相信他们会从经验中学习提高。

我们一般不这么想,但其实商业飞行员也是这样。我们坐飞机感到放心,是因为航空运输飞行员认证是由美国交通部联邦航空管理局管理的,要求飞行员最少拥有1500小时的飞行时长,500小时的国际航班经验,100小时的夜间飞行时间,还有75小时的仪表操作时长。不过我们也知道,飞行员的成长也需要工作经验。

2009年1月15日,当美国航空1549号航班被一群加拿大鹅击中后,在所有发动机关闭的情况下,机长 Chelsey “Sully”Sullenberger 奇迹般地将飞机降落在哈德逊河上,拯救了所有155名乘客的生命。大多数记者将他的表现归功于经验。他拥有19,663 小时的飞行时长,其中A320 飞机的飞行时长达到了4,765 小时。 Sully自己说:“可以这么看,42年来,我一直在一个叫做经验、教育和培训的银行中持续做着小额定期存款。1月15日那天,数额攒了不少,于是我提了一大笔钱。”Sully 和他所有乘客,都应该感谢以前陪Sully 飞过的那数以千计的人。

在收银员和飞行员之间,“胜任工作”的判断标准是有差异的。这种差异基于对错误的容忍度。很明显,对飞行员来说,容忍度要低得多。这体现在他们服务第一批真实客户之前,我们要求他们积累的训练时长上,即使他们真正上岗后会随着经验的增长而提高。对于不同的职业,我们对于接受多长时间的培训就算“胜任工作”了,有着不同的定义。

机器学习也是如此。

AI 应用是基于预测的。传统的编程算法遵循指定步骤处理数据,输出结果。但机器学习不同。作为当今 AI 技术的主要方法,机器学习算法会在学习过程中持续进化。给机器以包括结果在内的数据,它会找到其中的关联,根据这些关联,机器可以处理它从未见过的数据,并给出预测结果。

这意味着智能机器需要接受训练,就像飞行员和收银员一样。新员工在公司的培训体系中变得可以“胜任工作”,之后走上工作岗位,随着工作经验的积累持续提高。在这一过程中,判断何时可以“胜任工作”是个重要决定。就机器智能来说,这可能是个和时机有关的重要战略决策:何时从内部训练转换为实际工作过程中的学习。

需要寻找一个平衡点

对于机器智能何时算是“胜任工作”,没有现成的答案。我们只能去寻找一个平衡点。机器智能应用的成功有赖于认真地去寻找这些平衡点,并富有策略地与这些平衡点相靠近。

公司必须搞清楚的首要问题是他们和他们的客户对错误的容忍度是什么。我们对一些智能机器有很高的错误容忍度,而对另一些则很低。例如,Google 的Inbox 应用程序读取你的电子邮件,并使用AI 来预测你对某封邮件将作何反应,然后生成三个简短的响应选项供用户选择。即使有70%的错误率(即AI 生成的响应仅在30%的时间内有用),许多用户还是声称自己很喜欢使用这一应用程序。这种高容忍度的原因在于,减少撰写邮件和打字之利超过了响应预测错误时浪费的屏幕空间之弊。

相反,我们对和无人驾驶有关的错误容忍度就很低。主要由谷歌率先研发的第一代无人驾驶车辆,使用了专业的人类车手进行训练。他们驾驶着有限数量的车辆,进行了数十万公里的道路实测。这就像父母在让孩子自己开车上路前,会先坐在副驾驶上监督他们一段时间。

专业的人类车手提供了安全但同时又非常有限的训练环境。机器只能接触到一小部分路况。人在学会如何应对更可能导致事故的罕见事件之前,或许已经在不同的环境和路况下开了数百万英里。对于无人驾驶的车辆来说,真实的道路复杂又无情,因为人为因素造成的复杂又无情的路况会影响到它们。

那么第二个问题就是,要在真实环境中获取用户数据有多么重要。正因为知道训练可能需要很长时间,特斯拉在最近所有的车型上都配备了自主驾驶功能。这些功能包含了一组传感器,用于收集环境数据和驾驶数据,并上传到特斯拉机器学习服务器。在非常短的时间内,特斯拉可以通过观察其汽车驾驶员的驾驶状况来获取训练数据。道路上的特斯拉车辆越多,特斯拉的计算机就学的越多。

然而,除了在人类驾驶特斯拉汽车时被动地收集数据,公司还需要无人驾驶的数据来了解其系统的运行,以评估其性能,同时评估安全司机的干预时间。特斯拉的最终目标不是制造一名副驾驶,或是一名在监督下开车的青少年,而是完全自主的车辆。这就需要真正做到让人们在无人驾驶的汽车中感到舒适的地步。

何时让机器到真实环境中学习?

这个平衡点并不容易找到。特斯拉需要机器在实际路况下学习,但将现有车辆置于实际路况下,意味着给予客户一个相对“年轻和缺乏经验”的驾驶员——尽管可能已经比许多年轻的司机更好。不过,这比beta 测试的风险还是高多了。Siri 或Alexa 是否理解了你说的话,或是谷歌Inbox 是否正确地预测了你对电子邮件的回应,这些风险并不大。Siri、Alexa或谷歌 Inbox 出错,意味着较差的用户体验;无人驾驶车辆出错,意味着生命危险。

如同行车记录仪中记录到的那样,这种经验很吓人。汽车擅自下了高速公路,或者错误地把地下行人道当成交通堵塞而踩了刹车。紧张的司机可能会选择不使用无人驾驶功能,这样也许会阻碍特斯拉的学习。此外,即使公司能够说服一些人成为beta 测试人员,这些人会是汽车学习时真正需要的吗?毕竟,愿意参与无人驾驶的测试人员可能比平均驾驶员更喜爱冒险,这样一来,公司会把他们的机器训练成什么样子呢?

有更多的数据,机器就可以学习得更快,而上路以后,机器又可以获得更多的数据。然而,真实的路况中,可能会发生车祸,这又会损害公司的品牌。将产品放在真实路况中,可以加速学习,但会危害品牌(也许是客户的生命!); 将产品暂缓投入真实路况,会减慢学习,但可以花更多的时间在内部改进产品并保护品牌(也可能是客户的生命)。

对于某些产品,比如谷歌 Inbox,平衡点似乎很清楚,因为性能不佳的代价较低,而客户的使用大大有利于机器学习。尽早对外部署这种类型的产品是有意义的。对于其他产品,比如汽车,答案不太清楚。随着越来越多的公司开始引入机器学习,有更多的平衡点需要被找到。

  • 原文地址:https://hbr.org/2017/03/the-trade-off-every-ai-company-will-face
本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-04-05,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档