前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >科学家呼吁关注人工智能和神经技术四大伦理问题(上)

科学家呼吁关注人工智能和神经技术四大伦理问题(上)

作者头像
人工智能快报
发布2018-03-15 14:50:09
6940
发布2018-03-15 14:50:09
举报
文章被收录于专栏:人工智能快报人工智能快报

《自然》杂志发表了由哥伦比亚大学、中科大、谷歌等机构的科研人员联合撰写的文章,围绕人工智能和神经技术探讨了四方面的伦理问题。该文主要内容如下:

请设想一下下述场景:一名瘫痪男子参与一项脑机接口(Brain-Computer Interface,BCI)临床试验。一台计算机与他的大脑中植入的芯片连接,并接受相关训练,解读他对某个动作进行内心演练而带来的神经活动。计算机会由此生成指挥机械手臂移动的命令。某一天,该名男子对试验团队感到失望。他在之后指挥机械手从一位研究助理手中接过茶杯时将茶杯捏碎了,还让助理受了伤。尽管他道歉说这一定是装置出现了故障,但他忍不住怀疑这是否与自己对研究团队感到失望有所关联。

这是一个假设的场景,但也说明了我们这个社会可能将要遇到的一些挑战。

目前的脑机接口技术重点关注治疗效果,例如帮助脊髓损伤人士。这项技术已经能够让使用者执行相对简单的动作任务,例如移动计算机光标或控制电动轮椅。此外,研究人员已经能够通过功能性磁共振成像扫描,在基本层面解读人们的神经活动,比如某个个体正在想的是一个人,而不是一辆车。

可能还要数年甚或数十年时间才能看到脑机接口技术和其他神经技术成为我们日常生活的一部分。但技术的发展意味着我们正在进入这样一个世界:在这个世界中,我们能够解码人们的思维过程并直接操纵其意图、情感和决定背后的大脑机制;人们可以通过思考直接与他人交流;与人类大脑直接关联的强大计算系统可以帮助人们与世界交互,从而大幅增强其智能和体能。

此类进步可能会让从脑损伤和瘫痪到癫痫和精神分裂在内的许多症状的治疗发生变革,并会让人类的生存体验往更好的方向发展。但这项技术也可能会加剧社会不平等现象,为企业、黑客、政府或其他任何人提供剥削和操控大众的新方法。而且它可能会对某些核心人类特征带来深远影响:私密精神生活、个体能动性以及对个体是被身体束缚的实体的理解。

因此,我们现在就应该考虑可能的后果。

Morningside研究小组(Morningside Group)由神经科学家、神经技术专家、临床医生、伦理学家和机器智能工程师组成。其中包括来自谷歌和Kernel(一家位于美国加利福尼亚州洛杉矶市的神经技术初创公司)的代表;来自国际大脑科学项目的代表;以及来自美国、加拿大、欧洲、以色列、中国、日本和澳大利亚的学术研究机构的代表。2017年5月,美国国家科学基金会(US National Science Foundation)在纽约哥伦比亚大学赞助召开了一场研讨会,大家在会上讨论了神经技术和机器智能需要关注的伦理问题。

我们认为,现有的伦理指导原则对于这一领域而言是不够的。现有指导原则包括:《赫尔辛基宣言》(Declaration of Helsinki),这是1964年针对涉及人类受试对象的医疗研究项目确立的伦理原则声明;《贝尔蒙特报告》(Belmont Report),这是由美国国家生物医学与行为研究人类实验保护局(US National Commission for the Protection of Human Subjects of Biomedical and Behavioural Research)于1979年起草的声明;以及《阿西洛马人工智能原则》(Asilomar Artificial Intelligence Statement),这是由商业领袖和人工智能研究人员于2017年年初签署并发布的谨慎原则。

为了着手弥补这一不足,我们就以下四大关注领域提出了建议:隐私权和知情同意权、能动性和身份认知、体能智能增强以及偏见。具有不同宗教信仰、民族和社会经济背景的国家和人民拥有不同的需求和愿景,因此,各国政府必须建立自己的审议机构来协调社会各界代表展开的公开辩论,以及确定如何将这些指导原则转化为政策,包括专门的法律法规。

智能投资

世界上最富有的一些投资者将赌注放在了神经科学和人工智能的交叉领域。世界各地有十几家公司,包括Kernel以及Elon Musk(伊隆·马斯克)于2017年成立的初创公司Neuralink,都在对既能够“读取”人类大脑活动又能够将神经信息“写入”大脑的装置进行投资。我们估计,目前营利性行业每年对神经技术的投入已达到1亿美元,并且这一数字正在快速增长。

来自其他部门的投资也很可观。从2013年开始,单就美国人脑研究计划(US BRAIN Initiative)而言,就已经有超过5亿美元的联邦资金被投入神经技术的开发。

神经技术目前取得的成就已经令人印象深刻。一位因肌萎缩性脊髓侧索硬化症(ALS;也称为葛雷克氏症或运动神经元病)而导致瘫痪的神经科学家已在使用脑机接口运转其实验室、撰写经费申请以及发送电子邮件。与此同时,美国北卡罗来纳州德罕市杜克大学的研究人员已经表明,三只植入电极的猴子可以构成一个“脑网(brain net)”来协作移动虚拟手臂。如果信号通过互联网无线传输,这些装置可跨数千公里的距离运行。

这些只能刺激及读取几十个神经元活动的粗糙装置很快就会被取代。今年早些时候,美国国防部高级研究计划局(DARPA)发起了一项名为神经工程系统设计(Neural Engineering System Design)的计划。该计划希望在四年内获得美国食品和药物管理局对一种无线人脑装置的批准,该装置能够同时使用一百万个电极监测大脑活动并能够选择性地刺激最多十万个神经元。

与此同时,谷歌、IBM、微软、Facebook、苹果和大量初创公司都在构建比以往更复杂精密的人工神经网络。在具有明确定义的输入和输出的任务中,这些人工神经网络的表现已经超越人类。

例如,美国西雅图市华盛顿大学的研究人员在2016年证明,谷歌的人脸识别系统FaceNet能够从一百万张人脸中识别出特定的人脸。另一个具有类似神经网络架构的谷歌系统在猜测街景照片拍摄于何处方面的表现已经远远超过具有丰富旅行经验的人类,这表明了这项技术的普适性。微软于2017年8月宣布,其用于识别会话性言语的神经网络在某些指标中的表现已经能够与经过训练的专业人士媲美,而这些人员能够选择反复倒带聆听对话中的字词。2017年7月,德国弗莱堡大学的研究人员借助脑电图(EEG)数据,展示了如何将神经网络用于解码与规划相关的大脑活动,从而实现对机器人的控制。

如果我们对真实的神经网络如何运作有更好的理解,那么几乎可以肯定的是,未来的神经网络甚至会比这些例子中的神经网络更加强大。目前使用的人工神经网络受到50多年前的大脑回路模型的启发,这些模型基于对麻醉动物的单个神经元活动的记录。在当今的神经科学实验室中,由于光学方法、计算、分子工程和微电子技术的进步,研究人员可以监测和操控处于清醒状态并有行为能力的动物的数千个神经元的活动。

我们已经与我们的机器紧密联系在一起。根据谷歌研究人员在2017年的计算,用户每年平均接触手机近一百万次(数据未发布)。人类大脑控制听觉系统和视觉系统来解读声音和图像,然后命令我们的四肢抓握及操控我们的设备。但神经技术和人工智能技术的融合发展会带来质的不同:人类大脑直接与机器智能连接,以及绕过大脑和身体的正常感觉运动机能。

四大关注领域

为了在大众消费者市场推广神经技术,相关装置必须是非入侵式的、风险达到最低,且部署成本应该比目前的神经外科手术费用低得多。但即便是现在,那些正在开发相关装置的公司也必须对其产品负责,并以特定标准、最佳实践和道德规范为指导。

我们重点强调了需要立即采取行动的四大关注领域。尽管我们在神经技术的背景下提出这些问题,但这些问题同样适用于人工智能技术。

(1)隐私权和知情同意权。我们已经能够根据人们的数据足迹获取大量个人信息。例如,英国剑桥麻省理工学院的研究人员在2015年发现,人们在个人设备上的键盘输入模式可以反映其动作行为,通过对这些动作行为进行精细分析,可以实现对帕金森氏病的早期诊断。一项2017年的研究表明,对动作模式的测量(例如通过人们在正常日常活动中使用智能手机获得的动作模式)可以用于诊断阿尔兹海默病导致的认知障碍的早期症状。

如果能够利用神经信息(例如与特定注意力状态相关的神经元的活动模式),用于设置广告受众、计算保费或匹配潜在合作伙伴的算法将变得更加强大。与互联网连接的神经装置打开了个人或组织(黑客、企业或政府机构)追踪甚至操纵个人心理体验的可能性。

我们认为,公民应该有能力且有权利保持其神经数据的私密性(另请参阅“能动性和身份认知”)。我们建议采取以下步骤来确保这一点。

对于所有神经数据,选择不分享应该是默认选项并应得到严格保护。人们很容易就会向商业服务(例如互联网浏览、社交媒体或娱乐)提供商放弃自己的隐私权,但对于自己到底放弃了什么却没有充分了解。默认拒绝分享选项意味着神经数据会在大多数国家/地区得到与人体器官或组织相同的对待。如果个人要从任何设备分享神经数据,则该个体应明确选择同意分享。这可能涉及安全和保护流程,包括明确规定数据使用者、数据使用目的以及数据使用时间的知情同意程序。

即使采用了这种方法,通过组合大量自愿分享者的神经数据以及来源于互联网搜索和健康监测仪等的大量非神经数据,可得出关于选择不分享人士的“足够可靠”的结论。为了限制这一问题,我们提议对神经数据的销售、商业转让以及使用进行严格监管。此类法规也会限制人们放弃自己的神经数据或将神经活动直接写入自己的大脑,从而换取物质奖励的可能性。这些法规可能与禁止销售人类器官的立法类似,例如《1984年美国国家器官移植法》(1984 US National Organ Transplant Act)。

另一项保护措施是限制对神经数据进行集中处理。我们提倡部署差分隐私(differential privacy)或“联合学习(federated learning)”等计算技术来保护用户的隐私(请参阅“保护隐私”)。使用其他专为保护个人数据而设计的技术也有所帮助。例如,基于区块链的技术允许跟踪和审计数据,而“智能合同(smart contract)”则可以对数据的使用方式进行透明控制,无需设置集权机构进行管理。最后,开放数据格式和开源代码可以让哪些内容会保持私密以及哪些内容会被传输变得更加透明。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-12-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 人工智能快报 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
人脸识别
腾讯云神图·人脸识别(Face Recognition)基于腾讯优图强大的面部分析技术,提供包括人脸检测与分析、比对、搜索、验证、五官定位、活体检测等多种功能,为开发者和企业提供高性能高可用的人脸识别服务。 可应用于在线娱乐、在线身份认证等多种应用场景,充分满足各行业客户的人脸属性识别及用户身份确认等需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档