首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

霍金生前最后的警告:这个科研开发需谨慎,不然全人类面临毁灭!

霍金是世界上伟大的物理学家,虽然前不久他刚刚过世,但是他的影响力是不可取代的,很多报道说霍金作的关于人类的预言都将会实现。

霍金生前最后的警告:这件武器开发需谨慎,不然全人类面临毁灭!他说得这件科研产品是什么呢?

就是人工智能的开发,霍金强调如果人类过度的开发,人工智能将会出现电影里的那样,那就是人工智能拥有比人类还要生气,他们还对自己进行优化升级,最终将导致人工智能替代人类,而人类最终走向灭亡。

而人类则受制于生物进化速度,无法与其竞争,最终被超越。科学界把这种人工智能超越人类智慧的转折点命名为"奇点"。

2017 年 4 月 27 日上午,史蒂芬·霍金谈到人工智能的威胁、潜力,并呼吁大家现在应该停止人工智能研究与开发。

他的理由是,人们可能无法控制自己开发出来的人工智能,而这么一来,可能会出现一个一大部分人没有工作岗位的未来。的确,我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。

你对此有什么看法呢?欢迎给小编留言。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190420A07UBD00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券