首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

霍金教授说,人工智能可能会“毁灭”人性

如果工程师无法掌握其背后的道德规范,人工智能(AI)可能会副业和“摧毁”其创造者,斯蒂芬霍金教授警告说。

理论物理学家在里斯本举行的网络峰会上说,人工智能有可能成为人类所见过的最好或最差的东西,可怕的现实是,我们现在还不知道哪些是新闻报道。

霍金是人工智能无限制发展的最大批评者之一

他说:“我们不知道我们是否会受到AI的无限帮助,或者被AI忽略了,是否被忽略,或者可以想像得到它的破坏。

剑桥教授说,人工智能对于减少贫困,疾病和恢复自然环境是非常有益的,但是我们不可能预测“我们自己的思想被人工智能放大后,我们能做些什么”。

“人工智能可能是我们文明史上最糟糕的发明,它带来了像强大的自主武器这样的危险,或是为数不多的新方式压迫众多的人”。

“人工智能可以发展一种自己的意志,一种与我们相冲突的,可能会毁灭我们的意志。简而言之,强大的人工智能的兴起将是人类最好的事情,也是最糟糕的事情。“

史蒂芬霍金教授近年来已成为一个着名的厄运贩子

在人工智能开发的“先锋”中,工程师和技术人员的人群中,霍金警告说,他们需要把重点放在最大化社会效益而不是纯粹的能力。

他说:“我们需要在发展的所有领域采取有效的管理。” “我们站在一个勇敢的新世界的门槛上。这是一个令人兴奋的,如果不稳定的地方,你是先驱。“

霍金警告说,开发人工智能可能是我们所做的最后一件事情。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180430A1F57400?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券