前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >英国皇家学会报告:人们的确担心人工智能,但理由却是错的……

英国皇家学会报告:人们的确担心人工智能,但理由却是错的……

作者头像
量子位
发布2018-03-30 17:04:31
5990
发布2018-03-30 17:04:31
举报
文章被收录于专栏:量子位量子位
李杉 编译自Quartz 量子位 报道 | 公众号 QbitAI

英国皇家学会的最新调查显示,英国人更害怕把人工智能整合到家居设备和无人驾驶汽车中,反而不太担心将其用于预测性治安或疾病诊断之中。这份调查首次让我们得以深入了解公众对机器学习相关的风险和利益持有何种观点。

此次调查的参与者最担心的问题是,受到机器学习操控的机器人可能令他们身体受伤。也就是说,那些与用户亲密接触的家用设备和无人驾驶汽车风险极高。

不过,越发普及的机器学习系统的确蕴含着风险——而且不仅限于发生故障的无人驾驶汽车。数据科学家Cathy O’Neil表示,如果算法具备一定规模、工作原理保密而且具备破坏能力,那就非常危险。预测性治安便是一例,因为它有可能因为存在偏见的数据源而产生负面影响。

此外,医疗领域的机器学习也可能产生重要危害。康奈尔研究人员Julia Powles指出,研究人员向受访者呈现的材料显示,斯坦福大学用机器学习提升了乳腺癌诊断率,因此受访者认为,这种技术的误诊率不至于将社会置于风险之中。但Powles却表示:“计算机诊断尚未得到普遍证明。”

伦敦经济学院助理教授Alison Powell表示,风险认知和潜在风险之间的脱节在新技术领域很常见。“这是科技前景沟通问题的一部分:新技术往往会被定位成‘个人技术’,而对系统性风险的认知则会受到阻碍。”她说。

英国皇家学会也没有给出较好的解决方案。他们建议机器学习专业的学生在学习技术的同时参加伦理课程,还建议英国政府资助公众与研究人员展开互动,他们还反对针对机器学习展开监管。

毋庸置疑的是,机器学习如今已经无处不在,影响力还会不断扩大。英国皇家学会主席Peter Donnelly对发布会现场的记者说:“它有能力而且很有可能会对我们的很多个人活动和休闲活动产生影响。”

查看报告原文,请在量子位公众号回复:“英国”两个字。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-04-26,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子位 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 李杉 编译自Quartz 量子位 报道 | 公众号 QbitAI
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档