首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

为什么美国可能会在全球人工智能竞赛中落后

赢得人工智能主导地位全球竞争的国家将获得巨大的经济利益,包括到2035年可能使其经济增长率翻一番。不幸的是,美国正在就如何竞争提出不好的建议。

在过去一年中,加拿大,中国,法国,印度,日本和英国都启动了政府支持的重大举措,以参与人工智能竞争。虽然特朗普政府已经开始关注如何推进这项技术,但它还没有制定出与其他国家相匹配的有凝聚力的国家战略。这使得关于美国政策制定者应如何支持人工智能由主要关注通过对技术施加限制性规定而不是支持其增长来避免人工智能的潜在危害的倡导者的提议进行讨论。

人工智能确实提出了独特的挑战 - 从可能加剧刑事司法系统中的种族偏见到提高自驾车的道德问题 - 解决这些挑战的主要思想是强制执行算法透明度或算法可解释性的原则,或形成总体AI调节器。然而,这些措施不仅可能无法有效应对潜在的挑战,而且会大大减缓美国人工智能的发展和采用。

算法透明度的支持者认为,要求公司披露其算法的源代码将允许监管机构,记者和有关公民仔细检查代码并识别任何不法行为的迹象。虽然人工智能系统的复杂性几乎没有理由相信这实际上是有效的,但是对于那些经常藐视知识产权保护的国家(特别是中国)来说,窃取美国源代码的坏行为者会更容易。这将同时为美国在全球人工智能竞赛中的主要竞争提供支持,并减少美国公司投资开发人工智能的动力。

其他人提出了算法可解释性,政府要求公司将其算法解释给最终用户,例如描述他们的算法如何工作,或者只使用能够明确决策理由的算法。例如,欧盟已将可解释性作为人工智能潜在危险的主要检查,在其通用数据保护条例(GDPR)中保证一个人有权获得关于算法做出的某些决策的“有意义的信息”。

要求可解释性是恰当的,并且它已经成为许多领域的标准,例如刑事司法或消费者金融。但是,在同一标准不适用于人类决策的情况下,将这一要求扩展到人工智能决策将是一个错误。它会激励企业依靠人类做出决策,这样他们就可以避免这种监管负担,这会以牺牲生产力和创新为代价。

第三个流行的,但最糟糕的想法,最引人注目的是埃隆马斯克,是创建相当于食品和药物管理局或国家运输安全委员会,作为一个总体的AI监管机构。问题在于建立AI监管机构错误地暗示所有算法都存在相同的风险水平并需要监管。然而,人工智能系统的决策,如人类的决定,仍然受制于各种行业特定的法律和法规,并根据其应用造成各种各样的风险。仅仅因为使用算法而将低风险决策置于监管监督之下将是部署AI的相当大障碍,限制了美国公司采用该技术的能力

幸运的是,政策制定者有一种可行的方法可以在不破坏AI的情况下解决AI的潜在风险:采用算法问责制原则,一种轻松的监管方法,激励企业部署算法,使用各种控制来验证其AI系统是否按预期运行,并识别和纠正有害结果。与算法透明度不同,它不会威胁知识产权。与算法可解释性不同,它允许公司部署先进的创新AI系统,但仍然要求他们能够在上下文要求时解释某些决策,无论AI是否用于这些决策。与主人工智能监管机构不同,算法问责制将确保监管机构能够在其行业特定领域内了解人工智能,同时限制人工智能部署的障碍。

如果美国要成为全球人工智能竞赛中的一个有力竞争者,那么政策制定者应该做的最后一件事就是对人工智能控制无效,经济上具有破坏性的监管。希望现在关注不公平或不安全人工智能的政策制定者应该追求算法问责制的原则,作为解决他们关切问题的一种手段,而不会妨碍美国进入全球人工智能竞赛。

文章来源:www.xixi.ai(息息人工智能)

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180802A0ZNGS00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券