霍金给后人留下了三个警告,其中一个就是不要过度的开发人工智能,这样会导致很严重的后果,那么AI,真的会成为人类的终结者吗?
就让我们来简单地探讨一下这个问题。霍金曾经在人们研究人工智能的时候,说过这样一句话过度的开发人工智能。可能会导致人类的灭亡。其实不仅是霍金表达过这个思想。连比尔盖兹也曾经警告过人们AI的危害。
霍金的理念是如果人类一味的只是发明人工智能,那么在之后未来AI生活将超越人们的发展,就会造成这样一个后果,人工智能远远强于人类。这样造成的影响就会是人工智能将Q取代人类最终导致灭绝。这个时候人类的命运就并不是掌握在自己的手中了。
其实分析下来有两个问题是重点,第一个就是AI有没有终结人类的能力?会不会有终结人类的想法,毕竟AI只是一台由人类开发出来的智能而已。其实,这种想法实现的可能性不太大。
因为在未来主动权还是掌握在人类自己手中。最可能的问题,是人类滥用智能,用人类自己发明的智能去毁掉人类自己的生活。对比你有什么建议和看法,欢迎评论下方留言探讨。
领取专属 10元无门槛券
私享最新 技术干货