首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

要警惕AI被用于恶意目的

当谈论人工智能带来的危险时,我们通常强调的是意料之外的副作用。我们担心的是,我们可能会意外地开发出具有超级智慧的人工智能系统,而忘记赋予它道德;或者我们在部署刑事判决算法时,这些算法吸收了用来训练它的数据存在的种族偏见意识。

但这还不是人工智能可能带来的全部风险。

人们会主动将人工智能用于不道德、犯罪或恶意目的吗?这会带来更大问题吗?来自包括牛津大学、剑桥大学、人类的未来研究所(Future of Humanity Institute)、埃隆·马斯克(Elon Musk)投资的非营利性组织OpenAI在内的机构的二十多位专家称,这两个问题的答案是肯定的。

在这份题为《人工智能的恶意用途:预测、预防和缓解》(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation)的报告中,专家列出了未来5年人工智能可能给人类带来问题的一些途径,以及人类的应对之道。报告联合作者迈尔斯·布伦戴奇(Miles Brundage)向The Verge表示,虽然人工智能可以被用来发动恶意攻击,但我们没有必要谈人工智能色变,或者绝望。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180224A086PQ00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券