首页
学习
活动
专区
工具
TVP
发布

对人工智能的真正考验在于,机器能否承认何时以及为何不理解算法

这周早些时候(周三,2月19日),欧盟委员会在“塑造欧洲数字未来”的总框架下,发布了大量提案和政策文件,以监管人工智能。欧盟发布的文件包括:一份关于人工智能、物联网和机器人对安全和责任的影响的报告;一份概述欧盟数据战略的论文;以及一份关于人工智能“卓越与信任”的白皮书。总的来说,这些文件唤起了技术专制,民主虔诚和雄心勃勃的融合,而这正是欧盟交流的特点。话虽如此,就采取一切措施使科技公司受到某种控制而言,欧洲委员会并非是唯一的选择。

巧合的是,在脸谱网创始人马克·扎克伯格及其助手尼古拉斯·克莱格的陪同下,在整整24小时前,就发布了政策闪电战。克莱格看上去有点眼熟,他曾亲切地呼吁欧盟委员会向其官员解释监管科技公司的正确方法。官员们依次向他表示感谢,并礼貌地解释称,他们有自己的想法,并护送他回到他的座位上。

对于这个问题来说,欧盟发布的最有趣的文件是关于人工智能的白皮书。布鲁塞尔宣称,欧盟委员会提出“一种以监管和投资为导向的方法”,该方法有两个目标:促进人工智能的普及,并解决与该技术的某些用途相关的风险。然后,该文件就如何实现这些目标列出了不同的政策选择。

一旦您摆脱了关于欧盟的“技术和工业优势”,“高质量的数字基础设施”和“基于其基本价值的监管框架”等强制性的提倡欧元言论,将使欧洲成为“数据经济及其应用创新的全球领军者”。该白皮书似乎非常明智,但是,对于所有有关如何实际处理人工智能的文件,它都依赖于传统的有关人类代理和监督,隐私和治理,多样性,非歧视性和公平,社会福祉,问责制以及最受欢迎的“透明度”的传统陈词滥调,唯一明显的遗漏是不确定性。

但是,这在目前的人工智能领域是意料之中的事情:讨论总是由三部分概括而成,其中两部分传达了一点点虔诚的希望,这已经到了人们渴望获得一些直白和常识的地步。总之,欧盟和脸谱网都想监管人工智能,剑桥大学教授提出通俗易懂的办法。

幸运的是,它是由著名的剑桥大学统计学家、英国皇家统计学会前主席戴维·斯皮格豪特爵士提出的。他终其一生都在试图教人们如何理解统计推理,并于上月在《哈佛数据科学评论》上发表了一篇对人们非常有帮助的文章,题目就是“我们应该信任算法吗?”

哲学家奥诺拉·奥尼尔的观点为斯皮格豪特的方法奠定了基础——我们应该关注的是可信赖性而不是信任,因为信任是一个如此模糊、难以捉摸和令人不满意的概念。(在这方面,它与隐私没什么不同。)奥尼尔在一次著名的技术演讲中指出,寻求更多的信任“不是人生明智的目标——明智地安排和明智地拒绝信任才是正确的目标”。

通过实际应用奥尼尔的观点,斯皮格豪特教授认为,当出现一种新算法时,我们最应该关注的是,程序员对系统(开发人员说它能做什么,它是如何被评估的)和对框架(它对一个特定案例的结论)的可信声明。

由此,斯皮格豪特提出了一组关于任何算法的7大问题:1、在现实世界的新地方尝试有什么好处吗?2、一个更简单、更透明、更强大的东西是否也一样好呢?3、我能否向任何感兴趣的人解释一下它的工作原理吗?4、在特定情况下,我能否向一个人解释它是如何得出结论的吗?5、算法能否知道自己何时处于不稳定状态,并能否自己承认这种不确定性吗?6、人们使用算法是否恰当,人们能否可以持适当的怀疑态度?7、算法在实践中是否真的有用吗?

在我看来,这是一份对于监管人工智能或提出任何新算法的非常有用的问题清单。到目前为止,我们遇到的大多数有严重缺陷的机器学习系统,都会因为这些方面的某些或全部原因而失败。斯皮格豪特的问题是具体的,而不是笼统的,比如“透明度”或“可解释性”。而且,最重要的是,它们对普通人来说是通俗易懂的,而不需要像那些设计算法的极客们那样学习算法,才能真正弄懂这一切。

那么最重要的问题是哪个呢?斯皮格豪特认为是第5个问题:即人工智能机器应该知道它什么时候不理解算法——并且承认它不理解算法,也就是说,对人工智能的真正考验在于,机器能否承认何时以及为何不理解算法。可悲的是,这是许多人的失败考验。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20200223A0A06700?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券