前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >谷歌 CEO 公布 AI 七原则 但继续与美国军方合作

谷歌 CEO 公布 AI 七原则 但继续与美国军方合作

作者头像
C4rpeDime
发布2018-08-28 11:41:55
2650
发布2018-08-28 11:41:55
举报
文章被收录于专栏:黑白安全
谷歌 CEO 公布 AI 七原则 但继续与美国军方合作 谷歌 CEO 公布 AI 七原则 但继续与美国军方合作 国际动态
谷歌 CEO 公布 AI 七原则 但继续与美国军方合作 谷歌 CEO 公布 AI 七原则 但继续与美国军方合作 国际动态

针对此前不断发酵的与美国军方合作IAI技术应用事件,今天,谷歌CEO桑达尔•皮查伊(Sundar Pichai) 发表了题为《AI at Google: our principles》的署名文章,列出谷歌发展AI的七项原则,阐述了谷歌在研发和使用AI时将遵循的目标。Pichai 还明确列出了谷歌“不会追求的AI应用”,包括可能造成危害的技术、武器等。但是,谷歌并不会终止与美军的合作。

去年秋天,谷歌与美国国防部接洽,并开始秘密合作Project Maven项目,根据双方协议,谷歌会为美国军方的无人机提供AI技术。

据悉,五角大楼项目「Project Maven」主要应用深度学习计算机视觉技术,旨在帮助国防部门从图像和视频中提取值得注意的对象。该项目是在2017 年4 月由时任副国防部长Bob Work 在一份备忘录中首次披露的。

一贯以“不作恶”为原则的谷歌,在有侵犯隐私、违背伦理的风险下,是否应该接下巨额合同?此事引发了谷歌几千名员工联名上书桑达尔•皮查伊,集体抵制谷歌参与一个旨在提高无人机打击能力的项目。联名信中写到,“我们认为谷歌不应该卷入战争”,并要求谷歌宣布永远不会“发展战争技术”。

此事发酵了很长时间,直到上周五,谷歌云CEO Diane Greene 在上周五谷歌员工早会上宣布,Project Maven合同将于2019年到期,此后不再续签。

今天,桑达尔•皮查伊通过官方渠道发布了名为《AI at Google: our principles》的文章,列出了谷歌发展AI的7项原则,阐述了日后产品研发过程中的直到思想,和原则对业务决策的影响。

以下为桑达尔•皮查伊署名的原文(翻译):

AI的核心是可以学习和适应的编程计算。它不能解决所有的问题,但是在提升我们生活质量上有很大潜力、意义深远。在谷歌,我们利用AI使产品更有用,从在邮箱中防止垃圾邮件刷屏,到可以自然对话的语音助手,再到能能突出有趣的部分让你体验更好的照片应用。

在产品之外,我们利用AI帮助人们解决紧急的问题。一对高中生做出了AI驱动的传感器以预测野外火灾;农民利用AI检测牧群的健康;医生开始利用AI检测癌症、预防失明。这些显而易见的益处就是谷歌在AI领域大力研发的初衷,人们通过我们的工具和开源代码广泛地使用AI技术。

我们意识到,这样有力的技术在应用中引发了同等强烈的讨论。AI的发展与应用将在未来多年对我们的社会产生重大的影响。作为AI领域的领导者,我们深感责任在肩。所以今天,我们宣布7项原则来指导我们今后的工作。这里没有理论概念,都是会主导我们的产品研发和影响商业决策的,实实在在的标准。

我们深知AI领域是不断变化和发展的,无论对内对外,我们都会在工作中保持谦逊,并愿意随着时间推移调整我们的策略。

AI应用的目标

我们将根据以下的目标来评估AI技术的应用,我们相信AI应该:

1、对社会有益

新技术对社会的渗透日渐深远,AI的爆发会对所有的领域引发影响,包括健康、安防、能源、运输、制造和娱乐在内的诸多产业。对于AI的潜在发展和应用,我们会考虑各种社会和经济因素,并在实质性的益处大于可预见的风险的前提下保持前行。

AI也提升了我们的理解能力,我们将继续努力,利用AI提供高质量、准确的信息,在尊重文化、社会、法律道德的框架下运营。同时,我们也将评估何时在非商业场景应用我们的技术。

2、避免制造或加强不公平的偏见

AI算法和数据集可以反映、加强或减少不公平的偏见。我们认识到区分公平与不公平的偏见并不容易,它因文化与社会环境而异。我们力求避免对人们造成不公平的影响,尤其是与种族、民族、性别、国际、收入、性取向、能力、政治或宗教信仰等敏感特征有关的人们。

3、为安全而建立并经受考验

我们会继续发展和应用强有力的安防措施,以避免造成有危害的意外结果。我们会小心地设计我们的AI系统,并寻求AI安防研究领域的最佳实践。适当的情况下,我们会在受限的环境下测试我们的AI系统并在部署后监控运行。

4、对用户负责

我们会设计提供反馈、请求和解释的AI系统,我们的AI技术也会接受适当的人类调控。

5、纳入隐私设计原则

在发展和应用AI技术的时候我们会纳入隐私原则,我们将提供通知和同意,鼓励具有隐私保护措施的架构,并对数据的使用提供适当的透明度和控制。

6、鼓励科技美德的高标准

技术创新根植于科学的方法、开放式的调研、严谨的学术、正直的品格和通力的合作。AI工具有潜力开拓科学研究和重大领域的新领域,包括生物、滑雪、医药和环境科学。在AI发展过程中我们渴望科学美德的高标准。

我们将在AI领域与很多相关者合作,以科学严谨和多学科的方式来全面引领领域发展。我们将通过推出教育材料,最佳实践案例和研究,负责任地分享人工智能知识,使更多人能够开发有用的人工智能应用。

7、适用这些原则的应用

很多技术都有很多的应用。我们将努力限制技术的有害应用或滥用。随着我们开发和部署AI技术,我们将根据以下因素评估用途。

  1. 初衷与用途:技术的应用,也包括了其解决方案与被滥用可能的相关性
  2. 性质与独特性:我们是提供独特的技术还是更普遍的技术
  3. 规模:该技术的使用是否会产生重大影响
  4. 谷歌的参与:我们是提供通用工具,为客户集成工具,还是开发自定义解决方案

哪些AI应用我们不追求

除了上述目标,我们不会在以下应用领域设计或部署AI:

  1. 造成或可能造成伤害的技术:在有风险隐患的前提下,我们只会在我们认为益处远远大于风险的时候继续,并将纳入适当的安全限制。
  2. 武器或其他技术:即主要目的或实施是造成或直接促进对人们的伤害的技术。
  3. 收集或使用信息进行监视的技术:即违反国际公认的规范的技术。
  4. 违反普遍接受的国际法和人权原则的技术。

我们要明确的是,我们没有开发用于武器的AI,但我们将继续与其他许多领域的政府和军方合作。其中包括网络安全、培训、征兵、退伍军人医疗、搜索和救援。这些合作很重要,我们将积极寻找更多的方法来加强这些组织的关键工作,并确保服务人员和平民的安全。

长期的人工智能

虽然这是我们选择与AI打交道的方式,但我们理解很多其他的观点。随着人工智能技术的发展,我们将与一系列利益相关方合作,在这一领域推广有思想的领导力,采用科学严谨、多学科的方法。我们将继续分享我们在改进人工智能技术和实践方面的经验。

我们相信这些原则是我们公司和AI未来发展的正确基础。这种做法与2004年我们最初的《创始人的信》中提出的价值观是一致的。信中我们明确表示过,打算从长远的角度出发,即使这意味着要做出短期的权衡。这一理念我们当时说过,现在我们更加相信。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018-06-082,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档