首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

霍金死后做出警告,一定要小心该武器,用不好会毁灭人类

相信大家都听说过英国最著名的物理学家霍金,他在当时也被人们称之为天才,但就在前不久,他离开了我们,所以这个消息也让很多人非常的惋惜和伤心,因为霍金在生前就给科学界做出了很大的贡献。

不过在霍金离开人世前的一次演讲当中,他曾经就做出了一次警告,而这一次,他也表达了对人工智能的担忧,并且他也告诉人类一定要小心人工智能这一款武器,因为如果用不好的话,很有可能会毁灭我们自己,虽然霍金的这句话有一些夸张,但是他说的也并不无道理。

因为现如今,科技变得越来越发达了,所以这些人工智能的学习能力是非常迅速的,所以在一定程度上,他最终很有可能会超越我们人类,而且在未来,谁也不能保证这些人工智能武器不会向人类发起攻击,所以我们在人工智能领域的研究还是小心为好。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180322A0PZK900?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券