首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人工智能为何不敢大规模研发?霍金的预言将再次被证实?

霍金的言论总是得到世界各地的关注和认可,早在几年前霍金就曾发表过言论称,人工智能将会是人类灭绝的主要推动力之一,人工智能的崛起意味着未来机器人的只会讲超乎人类,很有可能反抗人类的命令并拥有自己的思想。

今日,霍金再次发出警告,再次提醒世人要特别注意人工智能对未来的威胁,然而,霍金最担心的不是人工智能的开发,而是人工智能会给人类带来的副作用。霍金警告说,地球的毁灭正在向我们逼近,人类创造了人工智能,他们可以毁灭我们。

但是我们却没有注意到这一点,没有能够建立有效的机制去防止灾难的发生,至今仍然没有机会避免这场灾难。霍金认为,随着人们科学技术水平的日益上升,导致未来人工智能得到的信息技术会愈发强大,而未来人工智能可能会以生化战争,或核子战争的方式摧毁人类,人类唯一的办法,就是运用其逻辑与理性去控制这个可能即将到来的毁灭。

当这些人工智能开始学会了思考,或是有了自己的智慧以后,地球毁灭也只是时间问题,不可否认的是,人工智能科技带给人们非常多的好处,对于人们非常有利,人们也热衷于去开发它并且依赖它,但就是人类的这种惰性和贪婪的心理,未来将会导致我们走向灭亡。

霍金觉得如果现在人们还不能看清未来,不能为未来的事情做好最坏打算,建立相对于人工智能更好地管理办法,人类最终都会败给人工智能,只不过是时间问题。

原创/涉水拔山

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180219A05JHI00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券