前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >激辩!人工智能和理性伦理之争

激辩!人工智能和理性伦理之争

作者头像
新智元
发布2018-03-13 16:57:11
7820
发布2018-03-13 16:57:11
举报
文章被收录于专栏:新智元新智元

总结:现在可能距离广泛采用人工智能软件那天还早,但是出现了一些在技术、监管和社会层面上不得不解决的问题。

“技术不好不坏,也不是中性的。”

这是1985年,一位佐治亚理工学院的技术史教授,Melvin Kranzberg 博士,所论述的6个定理中的第一个。

它主要的意思是技术最终的用途常常与原始发明有很大的不同,有时对人类、社会和环境产生了深远的、无法预料的结果。

今天最热的话题人工智能(AI)更是如此。虽然AI是一个包含了从自然语言处理到神经网络等多种类型的底层技术的合成词汇,但它最终是一个被算法控制的软件,它通过在大量数据中发现相应模式以在设定好的情境中学着完成任务。

因而,基于它对信息的分析和解读,它能够被训练来以某种方式运作,并做出特定的响应。举例来说,一个由Sunderland大学应用科学学院开发的程序,能够识别糖尿病患者虹膜的潜在病变来帮助临床医师诊断患者是否患有黄斑变性。

另一个应用,它有人类形象,名字叫做Amelia,由AI软件供应商IPsoft开发。她正被众多如NTT Group,Shell Oil和Accenture的大公司试用,主要功能是回答呼叫中心的询问。

当然,所有的这些距离好莱坞电影制作人描述出的反乌托邦式的未来——人们艰难抵抗以各种方式企图支配或者取代人类的机器的崛起——还很遥远。

但是这并不是说这种科技,即使在今天这样的市场雏形中,不会带来道德风险。公众和政府讨论最多的一个问题就是失业问题。这场辩论起于2013年牛津大学的一项研究,该研究预测20年内美国一半的职位会被自动化——一个骇人听闻的宣布。

就业问题

在过去的30年中,就像计算机的使用替代了很多蓝领的职业一样,争议仍然会持续,AI和机器人自动化也会影响劳动密集型、白领管理者的职业,影响范围包括从法律和金融到IT的职业。

有些人相信这种情况会直接导致新的、更加高技巧的工作的出现——例如,20年前有谁会相信数字营销从业人员的存在?但是其他一些人预测AI能够导致第二次工业革命,不仅会在就业过程,还在更广泛的社会层面中创造大规模动荡。

一个相关而且很重要的观点就是,大部分情况下,今天的财富分布是以就业为基础的,并且收入也是这样,尽管税收、收益等等会导致财富重新分布。但是如果现今的很多工作以后不存在了,问题就是如何维持人人受益的社会稳定。正如Frank Lansink,IPsoft欧洲首席执行官,所说:

“工作被认知智力取代有积极的一面,那就是它将人们从琐事中解放出来,进而完成一些更高价值的工作。但是如果我们不规范它,我们的社会最终可能会两极化,30%的人有工作做着高价值的任务,剩下如私人教练、日间护理人员等类似的职位——然而中间阶层的工作完全消失。”

这种情景强调了创造新系统以帮助人们更灵活、流动的方式来工作的必要性,但是这也需要财富以不同的方式分配。Lansink解释说:

“依据人们是公民而不一定依据他们是否有工作来分配财富——我们可能需要考虑这个情况或者这种情况在社会上引起骚动的风险,尤其我们中会有很多不能看到这种未来或者这种有意义的生活的人们”

还有的人的恐惧与AI使用而产生的潜在隐私问题和保密性滥用问题,还有缺乏知情同意书问题。例如,剑桥大学心理测量学中心主任,John Rust教授指出AI已经能够比人类更加精确地预测个性、感受、IQ和个人兴趣这样的事情。

控制问题

虽然这能够用来做一些好事,例如零售商用其提高客户服务,但是这样的信息有可能被商业或者政府机构误用,把这些信息作为一种用我们想不到的方式来控制个体的方法。Rust解释说:

“这是关于预测和控制,关于用高科技来更多挖掘人类自己,这不一定是个好事,军事智能可以用其给人们带来压力。他们正在研发能够杀戮的军事无人机,而不是开发机器来帮助人类。”

为了像“老大哥”(起源于荷兰真人秀,是使用监视器观察人们的比赛)一样的控制人们,有可能存在将AI滥用于州级的监视和公民目的分析的道德担忧。Ozel Christo,AI应用专家Neokami的首席执行官和共同创立者,解释说:

“这是关于连接数据源,也已经在‘了解你的客户,360度全方位观察’的行动中做到了一定规模。但是这不仅仅是关于AI——这也是关于大数据,关于依据摩尔定律、更多储存空间与互联网合并在一起的自由的、可用的计算能力。它可以创造出一个可怕的未来,这就意味着我们应该现在考虑这些道德问题。”

根据前自治行政主席Mike Lynch来说,不仅仅存在像“老大哥”一样的担心,也存在着“弟弟(Little Brother)”的问题。Lynch,创立了Invoke Capital,公司投资了基于AI的网络安全公司Darktrace,他将“弟弟(Little Brother)”来比喻那些使用AI技术、云等等类似技术的特定人们,Lynch说:

“想象一群动物权利极端分子使用自动车牌识别应用并将其与社交媒体结合——他们有能力识别某些车并在城市中追踪它们。‘弟弟’的潜在能力在很大程度上被低估了。”

监管问题

然后就是智能机器执行风险评估的能力,它评估的结果,虽然是依据数据,但也可能得出无法接受的结论。Lynch解释说:

“例如,过去,当某个国外有组织性的犯罪集团正在进行大规模贷款诈骗,如果你让AI系统识别在成千上万的应用中哪些应用是有诈骗性质的,机器可能——以完全没有偏差的方式——告诉我们某些少数族群中的个体更有可能进行诈骗行为,当然这种筛选贷款诈骗的方式完全不能够被接受,所以我们必须确信我们正在将AI加入到我们的伦理准则中。”

但是在技术层面已有隐忧。例如,Peter Trainor(咨询公司Nexus CX的以人为本设计部门的主任,他在英国高街银行正在完成一款AI客服系统)指出,如果给系统提供少于一千万的客户数据,系统本质上是不“成熟”的。这就意味着想要系统有效地完成它们被分配的工作,数据提供的还不够多。因此,它们还不能够执行分析工作。Trainor说:

“风险责任是放在在编写系统的人身上的。在系统准备好前不能够发布它。但是除大部分公司有被告并损失荣誉的风险外,并没有实质上的制衡机制来保证系统是‘成年人’而不是‘青少年’。”

现在法律上谁会为事情出错而负责也很不明晰,应该是使用方、程序员还是被认为很可信的机器本身。正如数字媒体与技术法律公司Kemp Little的商业技术合作伙伴,Andrew Joint指出:

“延伸当前法律原则来覆及如互联网和云计算在过去来说是成功的,但是我们开始将其应用到感觉更像是技术革命而非技术进化上了。至今为止,政府领导的监管讨论很少,并且这些讨论更多被律师发起。但是这种问题更像是社会和哲学上的问题,它应该在政治和社会层面来解决。”

虽然他也想将这种讨论从学术界转换到现实世界中,但是他感觉,一些“有新闻价值的事件”——如无人车撞倒某人并造成死亡——才能完成这种转换。

然而,一个打算解决这一伦理问题的机构是英国标准协会所。它刚刚公开发布了它的“BS 8611机器人和机器人装置——机器人和机器人系统的伦理设计与应用指导”报告,目的在于制定在相应领域的正式的,还不具法律约束力的标准。

我的看法

虽然现在可能距离广泛采用人工智能软件那天还早,但是举行一场讨论会,来制定一个如何使用、应用和管理AI软件的框架是很明智的行为,这可能会是促发深层社会变革的催化剂。

正如剑桥大学的Rust所说,优生学和二战的过激行为影响了今天医药方面道德框架的形成。所以相比于经历相似的毁灭性考验,通过开明、围绕AI的辩论和讨论来形成相应框架更好。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2015-11-21,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档