前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >霍金又来“危言耸听”了:人工智能将利用核武器来摧毁人类

霍金又来“危言耸听”了:人工智能将利用核武器来摧毁人类

作者头像
镁客网
发布2018-05-28 14:28:49
3820
发布2018-05-28 14:28:49
举报
文章被收录于专栏:镁客网

除了表示担忧,霍金这次也带来了如何应对的建议。

自人工智能技术受到关注以来,关于“人工智能威胁论”的争论就一直没有停歇过,其中,尤以世界著名的物理学家霍金以及特斯拉CEO马斯克最为活跃,数次发表关于“人工智能威胁论”的观点。这不,就在最近,在接受外媒采访的时候,霍金又再次发表言论,表达了自己对于人工智能技术的担忧。

在采访中,霍金表示,人工智能进一步发展便可能会通过核战争或生物战争摧毁人类。他认为,人类需要利用逻辑和理性去控制未来可能出现的威胁。对此,霍金还提出了相关建议,他提议人类可以组成某种形式的“世界政府”来防范人工智能可能带来的威胁。他表示:“世界政府可能会成为暴政,所有这一切听上去好像人类在街难逃,但我是一个乐观主义者。我认为,人类终将会崛起,解决这些挑战。”

据了解,这并不是霍金第一次发表对人工智能应该抱有警惕的看法,也不是第一次提出人类必须团结起来、携手共进对抗人工智能。早在此前,霍金就曾预言,人类在地球上智能再生活1000年,因此必须寻找另一颗宜居的星球。

尽管霍金又再次强调了人工智能在未来将带给人们的威胁,但目前我们并不需要担心,毕竟以当前的技术而言,让人工智能“拥有意识”并不是一件简单的事情,距离这个目标的实现还有很长的一段路要走。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-03-14,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 镁客网 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档