首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

为防AI被滥用,微软挥泪“斩”客户

本文由人工智能观察编译

译者:Sandy

微软研究实验室(Microsoft Research Labs)的技术研究员兼主管Eric Horvitz表示,鉴于人们对人工智能技术可能遭到滥用的担忧,微软决定“斩断”其部分客户。

本周一,卡内基梅隆大学—K&LGates道德与人工智能大会在匹兹堡举行。会上,Horvitz阐述了微软对AI道德的承诺。在微软,他们有一个专门关注这一问题的监督伦理委员会Aether,它代表了工程研究中的人工智能与道德标准。

对此,Horvitz表示:“这是我们的努力...很高兴,这个委员会‘无话不说’。”为什么这样说呢?因为该委员会会审查微软的AI技术如何被其客户使用,并且会直接向高级领导层提出建议。

“公司主要的产品销售已经暂停,”Horvitz说道。“而在其他销售中,各种具体的限制都被写在了使用说明中,包括在人脸识别或此类预测中可能不会使用数据驱动模式来进行识别等。”

尽管Horvitz提到了微软的人权承诺,但他没有对Aether委员会的工作做出详细解释,比如哪些客户或者特定的应用程序已被排除在外了。

过去一年多,微软一直在为政府和行业客户提供基于云计算的微软认知服务,包括人脸识别和情感识别。而在Facebook数据泄露事件发生后,关于人工智能和数据分析的伦理问题受到了更多人的关注。

Facebook事件中,涉及最大的问题是Cambridge Analytica利用该公司的数据锁定了选民。在Horvitz看来,操纵选民是AI应用程序被滥用的情况之一,同时,这也助长了侵犯人权的行为,增加了发生死亡事件或者出现重度伤害的风险。

Horvitz认为解决这些问题可能需要新的监管计划,甚至可能有办法让人工智能进行自我监督。

“你可以想象一下,让系统拥有自我监督的能力。”

这样一个自动化后的程序可能有助于微软避开它与Tay之间曾产生的问题,Tay是千禧一代的人工智能代理,2016年曾被线上恶意者教授发表种族主义言论。Horvitz承认,“这是一个很糟糕的例子。”

对于人工智能代理来说,最有效或者说最没有问题的情况,大概是人类为其做了“后台设置”。

Horvitz指出,现在微软AI程序能够识别出30天内两次住院的患者,这可以帮助护理人员对这部分患者多加关注。一项对该计划的学术评估确定,它可以将患者再次入院的概率降低18%,同时将医院成本降低近4%。

不过,对Horvitz来说,理想的情况是人类和机器能一起工作。比如,人工智能代理可以预料到人类专家可能会忽略的问题。但是,人工智能代理也可能存在盲点,近期引起人们高度关注的无人驾驶车祸事件就说明了这一点。

Horvitz表示,未来几年会寻找适当的时机将人工智能技术推向更广阔的市场,全面披露分阶段试验的程序、报告试验结果,甚至在必要的时候提出故障安全设计的过程。目前,微软的研究方向之一是预测AI代理可能面临的盲点或一切“未知”的事情。

总之,不管未来是焦虑的AI,还是带有道德规范或自我监督的AI,似乎人工智能正在朝着更全面的方向发展。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180410A1OI5H00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券