【新智元导读】今年 6 月,白宫科技政策办公室发布了一项信息征集申请(RIF),面向公众征集有关人工智能的信息。最终一共得到了 161 份意见,提交者来自个人、学术界及研究者、非盈利组织以及产业界。6 号,白宫公布了这次 RFI 征集的所有内容——长达 389 页的《人工智能大未来》。斯坦福“人工智能百年报告”也是为此提交的一份答卷。谷歌、DeepMind、Facebook、微软等公司也提交了各自的意见,凸显了他们在人工智能方面不同的观点和态度。新智元第一时间编译整理。报告还包含英伟达、OpenAI 等机构提出的建议。
作为《白宫人工智能未来计划》的一部分,白宫科技政策办公室(OSTP)6 号发布了公众就人工智能的未来管理及政策提交的意见及建议。所有这些资料都会汇集起来,成为白宫面向社会征集资料的一部分。
OSTP美国副首席技术官 Ed Felten 和美国首席技术官政策顾问 Terah Lyons 在 Medium 文章中写道,这一工作将持续下去,美国政府一直致力于更好地理解人工智能技术的益处和风险,包括机器人和人工智能如何改善人们的生活和美国经济的成长。
2011年,奥巴马总统在卡内基·梅隆大学位于匹兹堡的国家机器人工程中心(National Robotics Engineering Center),宣布了美国国家机器人计划(National Robotics Initiative),这是一项推动新一代机器人研究和发展的跨机构的努力,计划所推动的机器人研究有助于解决国家重点领域问题,包括制造业、可持续农业、太空和海底勘探、医疗卫生、交通、个人和国土安全,以及灾难恢复能力和可持续的基础设施建设。
参与这一研究和开发工作的联邦机构也参与组成了今年 5 月宣布成立的美国国家科学和技术委员会(NSTC)下属白宫科技政策办公室(OSTP)机器学习和人工智能小组委员会。新智元对该小组的成立有过报道。
10 月13日,美国总统奥巴马将返回匹兹堡主持召开白宫前沿会议(Frontiers Conference),前沿会议是白宫与匹兹堡大学和卡内基·梅隆大学联合主办的国家会议,旨在探索美国和世界各地创新和技术的未来。本次会议将重点关注建设美国在科学、技术和创新方面的能力,以及那些将塑造 21 世纪及未来的新技术、新挑战和新目标。在这次会议上,白宫将继续有关人工智能技术的挑战和机遇等议题进行全国性的对话。
关于《人工智能大未来》,OSTP 主要征集了以下几个方面的信息:
以下为几大科技公司各自提出的建议。
谷歌:关于近期的、有形的机器学习挑战
【第 145 项回复:Andrew Kim, Google Inc.】
我们赞赏 OSTP 召开有关人工智能全国性对话的机会,并且感谢 OSTP 提供机会能让我们根据我们的经验与技术合作对此提供意见。谷歌的使命是整合全球信息,使人人皆可获取信息并从中受益。为了实现这一使命,我们公司一直对人工智能的潜力及其对现实生活的影响感到兴奋。受研究和计算能力显著进步的推动,人工智能这种技术,尤其是在机器学习中的应用,正日益成为我们产品的一个重要特征。我们写信概括以下几点:我们在技术中感知到的机遇和现有的一些挑战,我们应对这些挑战的方法,以及为政府成为实现这一技术达到其最大潜能催化剂的机遇。
我们在哪里
人工智能不是投机的科幻技术,而是实用的软件工程工具,已经被用于每天帮助世界各地数以百万计的人。机器学习,人工智能中的一个专门研究从数据中学习的算法的分支,已经惠及了谷歌的许多产品。在这些讨论中常常提及的机器人技术与机械系统有关,机器人技术有时也会整合机器学习和人工智能技术,虽然并不一定。我们提交的这份报告侧重机器学习,不过这些观点也可以推广并适用于更广泛的人工智能。
机器学习领域的最新突破已经经过了几十年的酝酿。许多机器学习当代的发展都能够追溯至 20 世纪 80 年代和 90 年代政府资助的基础研究,得益于计算能力、有关全世界更丰富的信息,以及可用人才的成长,这些项目直到现在才开始取得实际成果。
在我们的产品中,机器学习的进步提升了产品的性能,从用户保护(例如垃圾邮件和恶意软件过滤器)到可访问性(例如语音识别)。例如,使用从双语文本中自动学习语言模式的方法,谷歌翻译每天翻译 103 种语言,超过 1000 亿字。在谷歌照片里,你可以搜索从“拥抱”到“边境牧羊犬”任意词汇,使用我们最新的图像识别技术的系统能够自动分类图像中的物体和概念。我们最近还宣布了机器学习有助于减少数据中心对环境的影响。
除了增强现有的产品性能,这些技术还将提高效率,并可能极大地提高社会应对一些我们在健康、环境、交通等方面最紧迫的全球性挑战的能力。在即将发表的研究中,谷歌已经表明机器学习如何普及糖尿病视网膜病变——全世界失明增长最快的原因之一——的诊断。研究人员正在使用机器学习探索从天气预报、遗传性疾病到自然生态保护和经济预测的议题。技术人员正着打造实用的产品,我们很高兴地看到科学界在其他领域研究和部署这些技术。
尽管近期发展速度一直较快,但是机器学习的进步及其对社会的影响都不是注定的。我们需要解决几个问题,从而最大限度地将这一技术的优势带给大家。
机器学习的三大近期挑战
许多有关机器学习潜在利益及后果的讨论仍然比较投机,专注于潜在的长期影响和理论边缘情况。在社会需要应对这些假设性问题之前,还有许多研究问题需要加以解决。谷歌关注的重点是三大近期挑战,我们认为有必要给予这三大挑战最高优先级。我们相信,在这些领域的积极工作将有助于未来五到十年机器学习的发展,甚至更广泛的应用。
保持开放的研究规范和惯例
机器学习蓬勃发展的部分原因是一套鼓励研究成果予以公开、共享的行为规范。过去的工作证,让社区原则保持朝向开放是很重要的。在这方面,谷歌一直是研究界的积极和开放贡献者。我们已经发表了各种成果,并且积极参与各种主题的会议,包括大型的深度学习会议、计算机视觉会议、序列到序列建模和神经网络内部流程可视化会议。我们最近还开源了谷歌内部的机器学习工具包 TensorFlow,无论是在太空试验还是推动艺术发展,任何人都可以参与。
重点研究有形的问题
与任何技术一样,扬长避短是十分重要的。机器学习领域的快速推进已经引发了在各种不同的情况下部署这些系统安全性问题。此外,还有一点是使用带有偏见的数据训练出的机器学习系统,也可能带有偏见或输出歧视性的结果。不过,从另一方面说,这样的系统侧重于更客观的标准,可能有助于减少或避免歧视。没有系统是完美的,错误总会出现。然而,技术的进步将增强我们应对这些挑战的能力。
为此,我们认为,严谨的工程研究应当划分出这些问题的解决方案,以提供这些系统的创作者在解决这些问题时有切实可用的方法和工具。我们的研究人员与其他人合作的论文《人工智能安全具体问题》,就以这个思路思考发生在身边的安全问题,从 和其他最近的一篇论文,,这种方法。我们也为像 Moritz Hardt 这样思考应对偏见和歧视等短期问题的谷歌研究员鼓掌。
潜在危害并不只限于研究。根据近期 ProPublica 对使用机器学习的司法系统的调查说明,不全面或偏颇的数据会产生歧视性的结果,因为机器学习算法会根据被训练的例子得出不正确的推论。这表明我们需要更好的诊断工具,也需要避免数据的缺口,因为在这些情况下数据的缺乏能够导致机器学习系统发生问题。特别是当这些系统安装在公共管理部门时,我们相信,联邦政府和国际社会能够而且应该促进齐全、品质优良和鲁棒的数据集,这样才能确保有责任的分析和使用数据。
创新和改进是一个持续的过程。而且,这些问题是多种多样的,我们不应该指望它们会有一个简单的“一刀切”的解决方案。
让机器学习从业人员多元化
机器学习产生的收益应该由全社会共享。让各种不同视角、不同背景和不同工作经验的人一起研究和发展机器学习技术,将帮助我们找出潜在的问题。对计算机科学教育的持续投资将有助于支持这一目标。谷歌正在通过努力配合并保留来自不同背景的学生这种方式扩大计算机科学教育。这包括增加接触和使用机会的项目,包括像CS First、Made with Code、Exploring Computational Thinking,以及计算机科学暑期学院这些倡议计划,还有我们通过 RISE Awards对创新型组织的支持。广泛传播如何学习机器学习也很重要,因为这为有兴趣学习更多的人提供了资源。我们正在支持 Geoff Hinton 这样的研究人员开设大规模开放在线课程,以此达成这方面的目标。
政府作为催化剂
我们赞扬白宫努力推动围绕机器学习的公共话语。适当地发现机会,在那里机器学习将有最大的和最积极的影响,其中一个重要组成部分是对该技术更广泛地了解。我们相信,政府在促进这些努力,让研究解决上面提出的挑战方面有一定的催化作用。
一些例子:
支持研究:联邦政府一直以来在支持长期的基础研究上发挥了重要作用。对于机器学习,政府应该并且已经继续发挥了这样的作用,支持创新研究的应用并解决潜在的限制和不足。
召集人才应对社会挑战:机器学习已被证明是一种应对大规模复杂问题的有效工具。联邦政府时刻面对这些类型的挑战,像能源、交通、环境、城市规划和公众健康。我们认为,政府可以召集力量,探索机器学习在这些领域的应用,从而提高政府的工作效率。我们也支持像美国数字化服务(US Digital Service)这样致力于政府内部建立技术能力的项目,并鼓励这样的制度化举措。
充分利用外交网络:机器学习是一种国际现象,吸取了来自世界各地的研究人员和数据集。成功开发机器学习取决于利于创新的法律制度的延续,比如版权法,灵活、巧妙设计的限制和例外可以鞭策新技术的发展。我们建议扩大Digital Trade 和 Digital Economy Officer 这些项目,以涵盖机器学习相关的问题。此外,政府可以号召现有的国际论坛,包括G-20 在内,整合工作,建立机器学习领域研究和开发的规范,这在一些地区已经实现。
促进教育和多样性:政府鼓励公众支持增加接受 STEM教育和获取职业的多样性。我们应该继续这种努力,确保更多的来自不同背景的学生获得计算机科学教育的机会。我们坚决拥护Computer Science for All 倡议,并会鼓励类似的项目。
确保灵活性:尽管机器学习最近有许多突破,但这种技术及其应用仍处于发展初期。由于这些机会仍然不断涌现,我们鼓励谨慎入微的监管办法,使创新应用得以蓬勃发展的同时,充分发挥其潜力。由于安全、运营及其他产品领域的基础设施建设都需要制定新的规则,我们支持由专家机构带头在各自的领域制定特定用途的调控方法。在保障消费者权益方面,比如个人隐私,现有机构对是否需要采取新的规则评估其做法,如果是的话,随着时间的推移,他们应该如何与现有的方法相结合,保持统一十分重要。我们也相信共识驱动下的最佳实践和自我监管机构将确保必要的灵活性以推动创新,同时制定细致入微的和适当的保护措施也将发挥重要作用。
虽然我们都集中在一些短期的考虑上吗,我们认为机遇和挑战都是巨大的,并且保证继续残与讨论、研究和开发。我们感谢有机会提出我们的观点,如果有任何问题或需要帮助,请随时联系我们。
Greg Corrado
高级研究员
Sarah Holland
公共政策和政府关系经理
Google Inc. - July 2016
谷歌 DeepMind:思考长远,为 AI 的未来做好准备
【第 98 项回复:Sean Legassick, DeepMind】
DeepMind 由 Demis Hassabis, Shane Legg 和 Mustafa Suleyman在2010年创建的一家人工智能公司。2014年被谷歌收购。我们建立的算法能够直接从原始经验或数据自己学习,并设计成 是“通用” 的,这样他们就能在各种各样的任务中都有良好表现,并且是立等可用的。我们世界级的团队由许多著名的机器学习专家组成,他们所在的领域包括但不限于,深度神经网络,强化学习和系统神经科学。
今年早些时候,我们因为AlphaGo在一场五盘制的比赛中击败了围棋世界冠军李世石而获得公众的关注。围棋是人类发明的游戏中最复杂的,并普遍认为是一个人工智能未解决的“巨大挑战”。尽管人们已经努力了几十年,最强大的计算机围棋程序还只是处于人类业余水平。
2016年1月28日,我们在《自然》上发表了描述AlphaGo的内部工作原理的论文。这个程序是基于通用AI的方法,采用深度神经网络模仿高手玩家,并通过自我对弈进一步改善。
有关AlphaGo,最重要的不是它能做什么的,而是它做的方式。 虽然AlphaGo系统现在除了下围棋还做不了别的事,我们的计划是扩展其在下棋过程中发展出来的能力,希望有一天能运用到重要的现实世界问题,这些问题同样是复杂和长期的(例如气候建模或复杂的疾病分析)。人工智能如果能找到正确的方法,将能促进社会巨大的飞跃式发展,特别是当数据集的数量和复杂性都在提升的情况下。这是一个改善人类决策过程的机会,长期效益显著。
为公共利益开发的AI
在日常生活方面,我们已经感受到机器学习和人工智能的好处。人们在日常生活中使用到的许多谷歌产品,从翻译工具到过滤垃圾邮件,以及智能回复。
DeepMind的使命是解决智能,通过这样,开发新技术,帮助 社会解决一些最棘手的问题,如科学和医疗保健。很难在这些大的挑战上取得进展,其中的一个原因是,即使最聪明的人类有时也很难完全理解系统的因果关系。 交互因子和信息数量的复杂性可能会让科学家崩溃。机器智能可以帮助建模和更好地理解 这种复杂性,进而使我们能够设计出更有效的干预措施。
然而,这一数据比起人类经验的丰富性,也要窄很多。AI要可以在根据细致入微的社会和文化语境来产生洞见,为人类在做合理的判断提供依赖的话,依然还需要几十年的时间。
重要的一点是,这就是为什么我们把AI当成一种增强和提升人类专业知识和洞见的工具,而不是替代人类做决策。 我们设想机器学习系统被设计为一种补充性的工具,能让聪明而具有动力的专家在这些领域工作,通过有小弟分析大量数据,提取的洞见,并且为人类提供推荐的行动方案。在疾病的早期诊断,发现新的药品、改进科学材料或者优化能源和资源的使用这些领域发生作用。
我们坚信,应该与领域内的专家携手,实施技术干预。这也是为什么DeepMind Health正在与临床医生合作,开发一些技术,为医生提供及时的信息,制定保健方案。目前,我们正在直接利用机器 学习探索医疗技术。刚开始,只需要使用相对简单的工具,就能让医生感觉到医护上已经获得巨大的提升,另外,这也为更加复杂的技术奠定了基础。
社会和经济的影响
一直以来,新技术都在塑造就业格局, 我们应该期待更多地使用人工智能和机器学习会带来什么不同。在许多领域,机器智能将增加和提高人们所做的工作, 让人在相同的岗位更高效地发挥作用。如同所有的技术创新, 我们应该预料到的经济活动和就业的新领域将会出现,而相关 的一些类型工作和技能将会衰退。对数字和创造性技能的投资的关注非常重要,随着技术的发展和成熟,这会支撑起一个强大的经济。总的来说,能从AI获得好处的领域应该越多越好,而不是由少数领域专享。
研究和数据
机器学习技术的发展,不仅需要大量数据,还需要正确类型的数据,用于创新和研究。在DeepMind我们已经广泛使用模拟环境,在获取公共数据的情况下也可以进行中啊哟的研究,并且,如有可能,我们也会资助研究,来建设更复杂的和灵活 模拟环境,支持进一步的研究发展。 在某些研究领域,模拟很困难的,所以为了研究获得成功,获得数据的获取权限是至关重要的。
我们一直都推荐促进获得数据的方法,同时保护个人隐私和数据的控制权,同时,尊重机构数据的完整和安全性。
也许更重要的是树立数据安全的最高标准。使用AI和机器学习来改进我们日常依赖的APP和服务,其中一个关键是安全地管理数据。随着我们开始看到大数据所带来的好处,数据保护问题依然是建立和保持公众的信任的关键,尤其是一些公共服务数据和使用不同的安全协议来共享数据的组织。
随着安全且受保护地提供数据的方式在不断被提出,各国政府应扮演重要角色,为世界级领先的数据安全实践提供支持。
安全数据将是AI和相关创新获得成功的一个关键。我们建议各国政府确保加密标准,既不削弱也不会成为障碍。
监管和道德
如同所有的科学研究,道德监督是非常重要的。开发创新和有益于现实世界的应用程序需要访问的真实数据。这就带来了隐私、安全和道德的问题,要求从业者社区和政府都要倾注精力。我们相信,计算机科学的研究生学位应该加入道德课程,与医学和法律专业意义,其中包括数据科学伦理和算法的公平性的培训。
随着算法在决策过程中的使用增加,其中包括机器学习的使用,对决策过程中公正无偏见的要求也在增多。现在用于确保机器学习被公正、负责和透明的使用的研究应该得到鼓励和支持。
在DeepMind,我们正在研究工具来帮助我们解释自己建立的算法和模型,提供更高的透明度。 总体而言,该领域整体的快速变化,可能会带来深远地影响,要求我们想出新方法,以确保AI开发和使用的安全,道德和共同利益。我们相信,AI的科学创新应在监管下进行。
作为我们DeepMind Health计划的一部分,我们已委任了一些受人尊敬的公众人物, 来为公众利益作独立监督员。他们每年举行四次会面, 仔细检查我们与英国的国民健康服务(NHS)的工作。在回顾我们的数据共享协议、隐私和安全措施以及产品路线图后,概述他们的发现。 目前,这是一个不错的方式。
另外,在每一个阶段,我们都会让患者和公众参与(PPI)融合到我们的医疗项目中。我们已经从使用患者反馈受益。我们的第一个病人代表大会计划于2016年9月召开。
现实世界中,这些技术的一些应用值得关注,特别是在广泛的部署和使用上。比如,我们是 担心致命自主武器系统中AI未来可能的角色,以及AI对全球稳定和冲突的影响。
我们支持通过国际协议对致命自动武器的禁令。我们相信这是避免灾难性后果的最好的方法。最后,与任何先进的技术一样,AI的影响取决于建造它的人。 AI是一种工具,由我们人类设计,控制和指导。关于这项技术能为人类生活带来的好处和机会,我们DeepMind感到十分兴奋。
Facebook:我们很努力,AI 很重要,最后提一点建议
【第 113 项回复:James Hairston, Facebook】
I. Facebook的AI
Facebook 的使命是赋予人共享的权力,使世界更加开放和连接。人工智能(AI)帮助我们构建工具,使人们能够连接并以新的方式进行分享。我们使用人工智能来构建新一代的应用程序,使分享比任何时候都更加自然、直观、宝贵。至于我们所有的技术,我们致力于负责任的开发和利用人工智能。
Facebook人工智能研究团队 FAIR 成立于2013年,我们的机器学习应用小组成立于 2015年。两组做机器学习、自然语言处理和计算机视觉等令人兴奋的工作。下一节详细描述了这些技术在Facebook上的一些应用。
Facebook 正在公开地与人工智能研究界合作,并且在人工智能研究领域进行投资。我们公开进行研究,包括发布所有的论文和开放源代码,驱动机器学习在全球的发展和机会。
我们相信,这种开放模式有助于刺激创新,鼓励协作和相互审查,能够帮助我们以更快的速度前进。我们很高兴的可能性AI来推动科学的进步和改善世界。
II. Facebook的产品和方案
机器学习涉及教计算机学习如何执行某些任务。机器学习有助于实现我们网站上一系列不同的产品,从即时翻译到提供News Feed中了解更多相关内容。
自然语言处理是指让机器阅读和理解人类语言的能力。自然语言处理是Facebook的数字助理“M”底层技术架构的关键,M会自动在Messenger的某些功能中激活自然语言处理技术,并使用人工智能来满足一些要求。
计算机视觉是机器学习的分支,涉及教电脑了解视频和图片的内容。我们的计算机视觉和自然语言处理的工作相结合,使我们的网站能够提供给盲人或看东西不方便的人“alt文字”。我们的计算机视觉技术利用机器学习算法,对图片内的物体和情绪做出预测,比如“汽车”,“宝贝”,“微笑”或“寿司”。这些说明会使用文本到语音转换技术大声朗读出来,让盲人和视障人士“看见”,并与他们的朋友和家人分享照片,进行交互。
人们开始收获AI带来的好处,从医疗、天文,到我们每天的工作和生活。Facebook带头处理大部分工作,因为我们已经意识到很多,我们能够获得可用于解决重大的、全球性挑战的数据。这往往有助于我们找出主要的社会挑战,建立与组织工作的关系。
其他的已经被投入使用的AI应用包括:
除了在科学和技术的进步,人工智能将带动新在未来几年的经济机会。我们委托分析小组进行了一项研究。他们得出结论,使用、开发、利用人工智能在未来十年将产生 1.49 到 2.95 万亿美元的全球经济影响。 AI的经济利益来不仅来自直接开发AI的技术部门,也来自提高生产率和溢出效益经济的其他现有的部门。
IV. 指导AI的成长和发展的原则
美国政府应保持轻触式监管模式重点消费者和结果在基本技术。任何方法应该考虑AI的
消费者和福利与行业专家的意见,充分考虑安全和隐私政策问题平衡。此外,AI的成长和发展,也可以通过政策来加强:
微软:AI 以人为本
【第 131 项回复:David A. Heiner,微软】
1.引言
微软十分感激有机会为白宫科学技术办公室(OSTP)提供关于AI 信息。我们十分欣赏白宫在适当的时候领导了一系列工作坊,激发了一些列对AI机遇与挑战的讨论,特别是以一种兼容并蓄的方式。可以积极地通过主旨演讲、讨论和panel来参与对话,我们十分开心。包括组织研讨会“ AI 的当下:近期人工智能技术对社会和经济的影响”。
“Al ”被用来代指一系列可以执行感知、学习、推理和决策的计算机技术,目的是让机器能像人一样解决问题。 AI涵盖机器学习等学科,在过去的15年,得益于数据、算法和计算能力的改善,我们在方面取得了长足的进步。
微软已经对AI的研究和发展进行了大量的投资,是一个 AI 进步的一个主要贡献者。微软有浓厚的兴趣,希望能用AI技术的潜力,来帮助解决社会的一些巨大挑战。
我们想象着一个充满希望的未来:机器会强化和扩展人类的能力和 经验,赋予每一个人充分发挥其潜力的能力,从而创造新的社会经济机会。这将带来新的挑战,但是通过共同努力,直面这些挑战,工业,政府,民间社会和 研究界能够带来一个有益的,积极的未来。我们认为, 关于这些技术的对话,能及时地给予更加有用的指导,让领域内的应用变得更加广泛,其中包括哪些在政府和工作政策方面的使用,以及在安全关键领域,如交通运输和医疗保健。
这种反应提出了三个关于塑造和实现AI愿景的进一步思考 :
2.以人类的方式塑造一个有原则的AI
人工智能技术的发展正处于一个拐点:有海量的数据可用,以及在云端的计算能力,大大地促进了机器学习的进步,以及AI使用的不断扩大。AI的前景是,从分析和机器学习得到的大量知识积累,可以用心的洞见和智能来改善决策过程, 从而得到更好的结果。
在AI的民主化和多样化进程中,微软认为,可用技术和平台的建立是一个关键。能让人们最好地利用现有技术的工具、语言、组建和平台,是我们热衷促成的事。
然而,我们也知道,也有很多人担心,快速的地自动化和对工作的替代,可能会带来经济的崩溃。这种崩溃对那些社会底层的人影响最大。
我们也理解,有人担心AI技术的发展会让社会已有的偏见扩大化,或者会创造新的偏见,因为算法和数据本身可能是带有偏见的。我们也意识到对AI技术发展过程不受监督和滥开发和人工智能技术的担心。甚至有人担心,这些技术可能会落到少数几个掌握权力的任何机构手里。
我们相信对更好地理解挑战进行持续投资,与其他机构合作,来解决人们的担心和开发和分享最佳实践。所以,最好能建立一个合作性的AI愿景,这样,机器就能在人类工作和决策中扮演更大的角色。我们也能由此获得前所未有的社会进步。
3. 选择重点研究的AI领域
微软研究院技术研究员兼董事总经理 Eric Horvitz, 在白宫技术研讨会上提出了《人工智能的安全与控制》的报告。Eric 强调开发新技术的机会,并制定了一套最佳实践。他所描述的工作是设计故障安全系统的重要性,在发生故障的情况下,以不会造成任何伤害,或至少最大限度地减少伤害的方式回应。“对所有故障情形进行建模在数学上是不可能也是不实际的,因此人工智能系统必须在不确定条件下和在某些信息不完整的时候做出决策。研究可以开发使强大的方法应对“已知未知”的情况,让人工智能完成更具挑战性的“未知的未知”的案件。
这样的方法的实例包括评估不同结果的风险,并选择具有低风险的方向,即使这意味着放弃一个更保守的结果。考虑 Horvitz 对人机合作的范围内自动防护响应为“未知的未知”的问题,人们意识到还有很多悬而未决的问题。是否要开发适用于一般理论的安全需求?如何让机器学习推理被用来识别在特定情况下人类认知和机器智能之间的交集,并帮助协调故障安全用于响应人类与机器之间更有效的行动?一个简单的说明性的例子包括人乘坐的无人驾驶汽车,AI可以帮助告诉人要多加注意,并在人机举措“最佳”混合时解决许多悬而未决的问题。
更多的安全研究部署包括:
Kate Crawford,纽约大学和白宫联合主办的“AI Now”活动的联合主席,微软研究院首席研究员就AI的显著社会和经济影响发表了评论。讨论AI的专家研讨会上,一个重点是需要确定与AI使用有关的社会不公平问题,包括检测数据的偏见,即反映在算法的系统性中不平等,以及意想不到的后果。“AI Now”突出了社会不公、道德、劳动和卫生这四大关键领域,与会者包括卡内基·梅隆大学教授,该教授在一项研究中发现,女性比男性在高薪职位中显示的几率要低一些,以及调查记者,这名记者发现,在州法院系统中广泛使用的算法预测犯人时对黑人被告持有偏见。大多数研究都需要在开发和部署过程中检测这些问题,从而进行干预和调整。
利用人工智能可以丰富视障人士的世界,可以帮助减少医疗事故(医疗事故是在美国致死率第三高的原因),起草新的刑事司法,如减少偏见逮捕、起诉、判刑和从转向那些需要医疗照顾之外监禁。也有许多研究的新领域,对其中的数字信息进行多样化的分析,以告知公众健康和政策,或者利用搜索日志的作为药物的安全性或早期检测等其他潜在问题的支持系统。在这些领域正在进行的工作应该得到支持,并鼓励开创新的项目。
4. 不断发展的协作方式制定政策
白宫系列公开课提供了一个整体看AI的机会,展示了来自多个学科的不同观点(计算机科学家、数据科学家、社会学家、经济学家、伦理学家等等)和众多利益相关者(产业、政府、民间团体、研究人员)。这是一个独特而积极的制定政策的态度,尤其是当新兴的技术尚未被很好地理解时,特别有效。
已经提出的主要领域包括劳动力的影响,偏见和歧视,安全技术,问责制和正当程序。由于AI仍然处在商业和技术发展的起步阶段,应当及时提出具有挑战性的问题,使它们能够在早期被人认识到,并且被迅速解决。对于政策制定,应继续召开利益相关者进行对话,包括联邦机构在内,可以相互交流,相互学习,优先考虑社会重要性的问题。更重要的是,当新的问题出现时,共同跟踪挑战,并制定可行的解决方案。可以激励一个具有包容性的方法,更加开放和协作制定政策。他们还促进发展更加基于原则和循证政策框架的制定,可能带来更多有意义的法规,在这种情况下,更人性化的视野发展AI将得到鼓励。
5. 结论
有政府与工业界、民间社会和研究界合作,以塑造一个未来,人工智能和人类共同合作,在机器充实应对社会挑战人的能力和经验的机会。
我们可以通过开发一个共享的原则,作为实现这一愿景的开始。我们可以促进和鼓励特定研究领域,支持技术的发展,促进机会平等。白宫AI系列公开课提供了一个很好的起点。展望未来,我们需要一个更加协作和包容性的政策制定流程,以鉴别、优先调整,并迅速应对出现的问题。 AI能帮助我们建立一个更美好、更人性化的世界,我们应该继续共同努力,积极实现这一未来。
6. 更多阅读