AI研究者切勿心太宽-戒慎戒惧以免贻害人间

导语:大家好,很高兴你们可以在百忙之中点我的这篇文章,希望小编今天的文章能够给您带来惊喜和快乐、开心,如果文章您觉得还满意,请您关注小编多多转发文章分享一下吧!小编祝愿各位看官今天有个好心情哦,在此谢谢大家了。

一项最新报告突显了人工智能的风险、比如居心险恶的自动驾驶汽车。

2012年、机器学习领域取得突破、激起了一股人工智能投资热潮!时至今日、投资热度仍在持续、我们的生活也更便利了!比如大部分时候、语音识别都很管用、再比如新款iPhon。

从中斩获颇丰的、是掌握相应技能、能构建这类系统的人 = =他们是最受器重的科技工作者!但最近、一份围绕AI进步黑暗面的报告向这些人发出警示-对于相伴而生的沉甸甸的道德负担。

这份文件共99页、列出了人工智能技术的一长串邪恶用途、有的还有些耸人听闻!它呼吁人们尽快围绕AI技术的滥用展开积极讨论!报告所举的例子有-清洁机器人被用来刺杀政治人物。

针对此类情境、报告提议的防御措施之一是-AI研究人员宁可偏执一点、不要太过开放!该报告称、不论是个人还是企业、AI工作者都应考虑在自己的技术中置入针对犯罪分子或攻击者的安全防范措施 = =甚至捂住某些概念或工具。

该报告的作者有二十多人、他们隶属的机构从牛津和剑桥大学、伊隆丶马斯克(Elon Musk)出资的研究所OpenAI、数字维权组织电子前线基金会(EFF)、计算机安全公司Endgame、到智库新美国安全中心(Center for a New American Securit。

近一年来、伦理成为机器学习领域的主要议题!这场讨论的一个起因是政府使用算法作出影响公民(如刑事被告人)的决策、而在一些情况下、机器学习系统暴露出偏见!最近、微软和IBM的商用面部分析服务就出现问题、不得不回炉再造、因为在识别深色肤色的人时。

该报告还指出、随着AI软件日益强大、普遍、它还可能造成更加切身的伤害、比如在自动驾驶汽车里、或是将复杂的办公任务自动化的软件!报告警示我们、这些系统很容易被纂改。

例如、一台自动驾驶汽车可能被攻陷、成为爆炸物的运送车、或有意撞车!五角大楼曾经资助开发攻击其他软件的软件、而这可能会助犯罪分子一臂之力。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181116A0BIP000?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。

扫码关注云+社区

领取腾讯云代金券