打破霍金预言,AI真的会是人类的终结者吗?

霍金给后人留下了三个警告,其中一个就是不要过度的开发人工智能,这样会导致很严重的后果,那么AI,真的会成为人类的终结者吗?

就让我们来简单地探讨一下这个问题。霍金曾经在人们研究人工智能的时候,说过这样一句话过度的开发人工智能。可能会导致人类的灭亡。其实不仅是霍金表达过这个思想。连比尔盖兹也曾经警告过人们AI的危害。

霍金的理念是如果人类一味的只是发明人工智能,那么在之后未来AI生活将超越人们的发展,就会造成这样一个后果,人工智能远远强于人类。这样造成的影响就会是人工智能将Q取代人类最终导致灭绝。这个时候人类的命运就并不是掌握在自己的手中了。

其实分析下来有两个问题是重点,第一个就是AI有没有终结人类的能力?会不会有终结人类的想法,毕竟AI只是一台由人类开发出来的智能而已。其实,这种想法实现的可能性不太大。

因为在未来主动权还是掌握在人类自己手中。最可能的问题,是人类滥用智能,用人类自己发明的智能去毁掉人类自己的生活。对比你有什么建议和看法,欢迎评论下方留言探讨。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180901A09AH200?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券