首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

我们向往的人工智能,却被科学狂人霍金、马斯克示警危险

我们绝大多数人都愿意看到科技的发展与进步,也相信科技会带给人类更积极的东西,对人工智能持乐观态度者的典型信念是:人类不可能被人工智能超越,因为我们可以利用人工智能来加强自己。不会出现我们和机器对抗的局面。通过与智能产物融合,人类可以加强自己的能力。

人工智能

但有史以来,几乎所有尖端技术都最先被用于战争,人工智能亦可能会被优先用于杀戮。这个系统会不断学习提高杀人效率,会自我修复、升级,会千方百计维持能源供给……制造者有把握控制它们吗?生命体与非生命体的本质区别在有无求生本能。 对人工智能来说:不给求生本能,它就不可能完全象人一样思考,终究是机器。给求生本能,让它们懂得爱自己的“生命”,人类对它们有何价值?

人工智能机器人

马斯克在Twitter上表示,“我们要非常小心人工智能,它可能比核武器更危险。”。史蒂芬·霍金也说“人工智能可能是一个‘真正的危险’。机器人可能会找到改进自己的办法,而这些改进并不总是会造福人类。”希望人工智能的研发和推动者能够很明确阻止人工智能有可能带来的危险性一面,从而只给人类社会带来福音。

马斯克

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180224A06CX500?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券