首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

德勤:人工智能,还是人工智障?

1982年版《银翼杀手》中的人造人“瑞秋”成为无数美国宅男的女神

第22期《德勤评论》发表了一篇很有新意的文章《人与机器一同变得更加聪明:为什么说人工智能需要以人类为中心的设计》。文章指出,如果不当地运用人工智能,特别是脱离了人类中心,就很可能造成“人为的白痴”。以下是文章的主要内容:

AI是人类认知世界的“假肢”

人工智能将重塑商业和全社会。但是,在商业领域,上规模的“大数据”项目和人工智能项目经常不能交付用户。究其原因,研发人员总是以管窥豹,高估了现有数据的充足性,或低估了将现有数据与可用模型相匹配的难度,又或者,在应用算法求取结果时跳过了必要的步骤。

而在社会领域,愈发有迹象表明,人工智能算法可以编排包藏各种偏见的信息、散布阴谋论、发布虚假新闻、人为放大舆情、绑架我们的“眼球”,甚至损害我们的心理健康。

解决这些问题,需要一个贴近现实的人工智能概念。目前“人工智能”常常被夸大为“人造的心智”——指的是人类的思维方式。

实际上,今天的人工智能应用程序来自于几十年来一直在持续开发的同类算法,只不过时至今日,在更强大的计算机上实现了,并在更大的数据集上进行了训练。今天的AI只在狭义上是“聪明”的,而不是一般人类的那种“聪明”。从功能上,与其把AI看作“思考的机器”,倒不如看作我们人类认知的“假肢”,可以帮助人类更好地思考。

换句话说,AI算法是“心智的工具”,而不是“人造的心智”。

(与此相反,科幻小说和电影中,通常是某个天才科学家设计出一个“近似真人”、拥有“灵魂”的机器人,然后Ta在未知的人类世界里开始各种“自我发现”......)

《银翼杀手》的续作《银翼杀手2049》中,主角 人造人K经历了经(俗)典(套)的自我怀疑→自我觉醒→自我牺牲的“一生”

“以人类为中心”的设计是至关重要的。AI应用必须能反映用户的真实需求和人类的心理。AI需要接受人类行为方式本身,而不是被灌输一些我们想当然的“人类行为”。

AI的设计初衷应当是提高人类智能,并被人类用户所“收养”。否则,我们现在拥有的那些“聪明的”技术不太可能产生“聪明的”结果。人工“智能”如果被不当地设计、实施和适应人类社会,就会导致人工“智障”。这里面,人类本身、社会组织及其他社会因素是至关重要的。

AI已经能理解自己在做什么了?——这只是种幻觉

当前普罗大众心目中的AI概念大概有两类:

其一,“让机器像人类那样思考”,或者,模仿人脑的某些特质。但这里模糊的概念和科学幻想太多了。

其二,时下自动驾驶、语音识别炙手可热,这都是“将机器学习/AI 应用于大数据“的成果,但并不是所有形式的AI都涉及将机器学习应用于大数据。

所以,我们最好从功能上给AI下个定义。如果某些程序达成了一些我们通常认为是人类智能的“成就”,那么这些程序都可以视为AI。程序何以“做到”不是问题,只要它能“做到”就够了;如果够“聪明”,它就是AI,但它并不需要像我们一样聪明。(诸如某种极端天才的AI设计,或者神秘的“灵魂”)

例如,用某种算法对急诊室病人进行分类,这是在用算法执行以前只由人类完成的任务,所以它算作一种AI应用。而且该程序既不是模仿人类智能,也没有将机器学习应用于海量的数据集。

目前AI自动化程序既可以基于显性的知识,也能基于隐性的知识。前者是一种教科书式的知识结构,可以在操作手册中罗列出来。通过计算机代码将此类知识付诸实践的技术已越来越实用——机器人流程自动化(RPA):构建软件程式“机器人”,执行那些枯燥、重复性、易出错、耗时的任务,例如处理地址更改、保险理赔、医院帐单、人力资源报表等。

由于RPA具有低风险高回报的优点,所以那些希望通过AI降本增效的组织机构总愿意尝试它。这样可以为人员腾出宝贵的时间,去处置更复杂、更有意义,或直接面向客户的任务。

另一方面,很多人幼稚地认为,AI自动化可能驾驭不了隐性知识——那是一种实践中的灵光乍现,无章可循,而且大部分人类知识都是这种隐性知识。比如,一个护士“觉得”孩子得了流感,一名消防员“觉得”燃烧的建筑物即将倒塌,或者数据科学家“觉得”某个变量反映了某种可疑的代表关系。

但是,AI基于人类隐性知识的自动化能力正在迅速发展。例如,面部识别、感知情绪、驾驶汽车、“翻译”口语、阅读课文、撰写报告、给学生论文评级,甚至促成人们约会(交友)。在许多情况下,新型AI能比人类更精准地执行这些任务。

AI具有如此惊人的能力,使得人们轻易得出结论:计算机正在实现——或者快速接近——理解它们自己正在做的事情,就像人类心智那样。但这不过是一种幻觉。

AI算法只是在较弱的意义上“演示某些类人的隐性知识”:幕后有巨量的人为劳动,把隐性知识转换为数据,再用这些数据来构建或训练AI。有个术语叫“人类介入的机器学习”,常用来描述这个过程。虽然大数据和机器学习能够创建那种捕捉、传递某些现实“意义”的算法,但这种自动化能力与真正的"理解"和“发明某种意义”相去甚远。

如果忽视“人类中心”,就会导致人工“智障”

那么,既然(启动后的)自动化过程已经完全不需要人类参与了,为什么自主的AI系统还需要以人类为中心予以设计呢?有以下几个原因:

1. 什么才是"最优"结果

只有当设计满足了最终用户的需求时,数据科学的产品和AI应用才是最有价值的。例如,将“波兰的大小”输入搜索引擎,准确答案显示120728平方英里,注脚是:“与内华达州差不多大。”——显然,数值答案更准确,但凭直觉的回答往往更有用。这说明,计算机算法得出的“最优”结果,并不一定是最终用户心里预期的“最优”结果。

2. 在人脑与AI之间顺畅切换

许多AI系统在大部分时间里都可以很好地运行“自动驾驶仪”,但有时需要人为干预,去解决那些要依靠常识或模棱两可的情况。这就需要以人类为中心的设计,以确保顺畅地切换。假如切换不顺畅,人工智能就会产生“人工智障”,举个例子:

前两天我叫了个出租车,这趟行程只需要一些常识和稍微了解一下当地情况。可是,司机却跟着导航开迷路了。所以,应该给AI加上一个“稍许不自信的”或“潜在的强力干涉”的告警机制,“劝说”司机自己重新想一下路线,而不是抑制他的常识去迎合AI算法给出的路线。

这就是所谓的“自动化悖论”:我们对技术的依赖越强,我们在技术失灵时处置意外情况的备用措施就越少。这个问题很棘手:人们处置意外情况所需要的技能,必定多于——而不是少于!——用AI算法处置一般问题所需要的技能;而AI自动化的普遍应用,恰恰削弱了我们应对“意外情况”的技能。换句话说,有时为了让我们的头脑保持灵光,就要少用 AI 多动手。

3. AI对信息的反馈。

让自动化算法作决策,它就会反映和放大其所接受数据中的不良信息。最近有一个生动的例子,就是Tay,它是一个设计成通过与用户对话来了解世界的聊天机器人。但是,它在启动后不到24小时就被迫关掉了,因为网上很多搞恶作剧的人训练它发表种族主义、性别歧视和法西斯言论。这种例子现在随处可见。因此,人们愈发呼吁,设计聊天机器人和搜索引擎时,不仅要考虑到优化其速度和算法的精度,也要对人类用户的行为和社会偏见进行过滤。

4.心理上的不良影响。

正如用户行为能够对AI算法造成负面影响一样,AI算法也会对用户及其行为造成负面影响。有两个严肃的现实问题可以说明这一点。

首先,基于AI的娱乐和社交媒体应用程序,显然在通过各种方式对人造成危害。比如,那种查阅新邮件/新消息的“强迫症”,让人们熬夜,而且在工作中分心;过度使用社交媒体,会造成不良情绪以及“害怕错过某个东西”的焦虑感;硅谷有内部人士表示,越来越担心人们的心智被某些让人上瘾的技术所绑架。

其次,人们越来越担忧AI算法对新闻和报道的同步过滤。——AI根据你的“个人偏好”(自选或机器替你选的),在你接触的各个终端上给你推荐同一类的新闻报道,过滤掉其他新闻或其他角度的报道。

这会导致所谓的“过滤泡泡”和“认知——门控——社群”。有学者认为,这可能会加剧阶级或社群的两极分化,削弱人们理性的审议和决策——而这是一个民主制度良好运作的先决条件。

他建议社交媒体的推荐引擎,应当充斥以人类为中心的设计理念:让人们重又自发地、偶然地发现各种新闻故事和评论,这有助于消减两极分化和群体本位的思维惯式。

简而言之,如果没有“以人类为中心”的成熟设计,任何“成熟的”自主AI系统都会适得其反。

“技术还好说,难的是找出技术周边的社会和体制结构。”

(未完待续)

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180504G1XMKD00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券