首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

谷歌公布AI使用七原则,看似诚意满满但仍“留了空子”

本文由人工智能观察编译

译者:Sandy

面对内部数千员工的抗议,以及外部学术界的批评和媒体的曝光,本周四,谷歌终于发布了使用AI的七项原则,该公司承诺不会将其人工智能用于会造成“整体伤害”的武器、技术和非法监视。但这个七项原则,在外界看来却又很模糊,留有很多漏洞和空子。

谷歌CEO Sundar Pichai在文中表示AI如何开发和使用,将会对未来社会产生重大影响。“作为人工智能领域的领导者,我们感到深深的责任感。所以我们宣布了七项原则来指导我们今后的工作。这些不是理论概念而是具体的标准,将积极主导我们的研究和产品开发,并会影响我们的业务决策。”

虽然这七项原则的制定,直接原因在于该公司与美国军方签署的Project Maven引起了内部员工的强烈不满,但这个问题只是一个关于人工智能的一个缩影,如果进行深入的思考,那么有关AI应该如何开发、如何使用的考量才是根源所在。

在Pichai发布七项原则的同时,谷歌云首席执行官Diane Green在另一篇官方博客中介绍了未来谷歌云将如何践行AI原则。此外,她还证实了上周传出的消息,即谷歌将不再延续Project Maven的合同,但是“正在与‘我们的客户’合作,以求用对他们来说长期有效、又不和我们的AI原则冲突的方式,负责地履行我们的义务。”

如下是谷歌使用AI的七项原则:

AI应用目标:

1、对社会有益。

新技术的应用范围越来越广,越来越影响到整个社会。AI的进步将对包括医疗保健、安全、能源、运输、制造和娱乐在内的广泛领域产生重大影响。当我们考虑AI技术的潜在发展和应用时,我们将考虑一系列的社会和经济因素,并将在我们认为整体收益远超过可预见的风险和弊端的情况下继续推进。

AI还增强了我们理解大规模内容含义的能力。我们将努力使用AI来随时提供高质量和准确的信息,同时继续尊重所在国家的文化、社会和法律准则。我们将继续仔细评估何时可以在非商业基础上让大家使用我们的技术。

2、避免制造或加剧偏见。

AI算法和数据集可以反映、加强或减少不公平的偏见。我们承认,区分公平和不公平的偏见并不总是很简单,并且在不同的文化和社会中是不同的。我们将努力避免对人们造成不公正的影响,特别是与种族、民族、性别、国籍、收入、性取向、能力以及政治或宗教信仰等敏感特征有关的人。

3、提前测试以保证安全。

我们将继续开发和应用强大的安全和保障措施,以避免造成引起伤害的意外结果。我们将设计我们的AI系统,使其保持适当的谨慎,并根据人工智能安全研究的最佳实践开发它们。在适当的情况下,我们将在有限的环境中测试AI技术,并在部署后监控其操作。

4、由人类担责。

我们将设计能够提供反馈、相关解释和说明的AI系统。我们的AI技术将受到人类适当的指导和控制。

5、保证隐私。

我们将在开发和使用AI技术时融入隐私原则。我们将提供通知和同意的机会,鼓励具有隐私保护措施的架构,并对数据的使用提供适当的透明度和控制。

6、坚持科学高标准。

技术创新植根于科学的方法和开放式调查的承诺,学术严谨,诚信和合作。人工智能工具有可能在生物学、化学、医学和环境科学等关键领域开拓科学研究和知识的新领域。我们致力于促进人工智能的发展,追求高标准的科学卓越。

我们将与广大股东合作,通过科学严谨和跨学科的方式来全面促进该领域的发展。我们将通过发布教育材料,以及通过发布可以促进更多人开发AI应用的最佳实践和研究来分享AI知识。

7、从主要用途、技术独特性、规模等方面来权衡。

许多技术有多种用途。我们将努力限制可能有害或被滥用的应用程序。

我们不会将AI应用于:

1.制造整体伤害之处。如一项技术可能造成伤害,我们只会在其好处大大超过伤害的情况下进行,并提供安全措施;

2.武器或其他用于直接伤害人类的产品;

3.收集使用信息,以实现违反国际规范的监控的技术;

4.目标违反被广泛接受的国际法与人权原则的技术。

文章最后,Pichai写道:“我们相信这些原则是谷歌和AI未来发展的正确基础,这与我们2004年发布的价值观一致。我们在此明确表示谷歌更看重AI的长远发展,即便需要为此付出短期的权衡。”

不可否认,谷歌原则的发表,安抚住了许多的员工。但不能不提的是,在这七条原则及其描述中,谷歌自由地使用了诸如“恰当”这样的字眼,为自己留下了很大的余地。什么时候是“适当”的情况下,在有限的测试环境中测试AI技术并部署后监控其操作?什么是保持“适当”的谨慎?AI技术将受到人类“适当”的指导和控制又是指什么呢?......

这些都是具有争议的,当然,在如此短的时间内,我们很难指望这些原则会有硬性的规定,但再仔细想想,这份原则并不是在短时间得出来的结论。多年以来,谷歌一直是人工智能领域的领导者,并且有很多时间来建立更多的原则。

举个例子,该公司关于“尊重文化,社会和法律规范”的承诺在很多方面都得到了验证。尽管确立了这些原则,或者谷歌的政策已经倾向于适应政府或宗教权威的要求,但我们可以从哪里可以看到他们在什么地方应用了实践呢?

而且,为了避免产生偏见,并对民众负责,当然(基于谷歌在这方面的现有工作),有没有一些具体的做法呢?比如,如果涉及谷歌的系统具有基于敏感数据或类别的结果,那么该系统是否可以进行完全审计并公之于众?

这些想法都是很好的想法,但AI的应用并不是抽象的。目前,他们被用于确定警力的部署,或选择房屋贷款利率,或分析医疗数据。如果谷歌真的想保持自己在该领域的主导地位,那么真正的规则是必要的,或者说如果规则已经建立,就需要把它们放到重要的位置去践行!

此外,还有一些媒体对谷歌的七项原则表达了不满之意,比如《纽约时报》认为,由于谷歌此前一再强调自己为国防部所做的工作并非出于“进攻目的”,这些指导原则能否将该公司排除在类似Project Maven的合同之外,尚不清楚。

ZDNet也在评论中指出,即便谷歌说不让自己的技术用于武器开发,但一旦变成开源项目,这些技术和代码就有可能用于作恶,就像其他的工具与技术一样。

(文中图片来自网络)

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180608A1X7U200?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券