首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

霍金曾经对人类的未来有三大担忧,每一个都让人们细思极恐

霍金的一生也是富有着传奇色彩,现代人们没有听说过霍金的估计是非常少的,他之所以能让世界人民记住他,一部分原因是他是一个坐在轮骑上的科学家,他的经历都是满满的正能量。另一个原因就是他一生的伟大成就,。

霍金在物理领域和宇宙领域有着自己独到的见解,提出了很多的理论和学说,他是现代科学界最具影响力的代表人物,他向人们科普宇宙知识,让更多的人加入到探索宇宙这个大家庭里,激发了无数人对宇宙的好奇之心。

霍金也是一位非常有责任感的科学家,他看到人类文明巨大进步的同时,也提出了对人类未来的一些担忧,其中有三个最具有代表性,也是未来有可能会发生的事情,下面朋友们就随同小编一起来看看霍金对人类未来的三大担忧。

一、人类被人工智能取代。可能很多人觉得这不可能,人类是人工智能的创造者,人类是世界的主宰,怎么可能会被人工智能取代。但是霍金却认为,人工智能可能是人类历史上犯得最严重的错误,它有可能在未来终结人类。

人类科技能够在近百年发展如此迅速,除了有一些伟大科学家的研究和付出,还有人类制造的一些工具的辅助,而计算机则是其中最有力的工具,可以说人类正是研究发明了计算机,才让科学能够飞跃式发展。

人类虽然非常聪明,可以创造和发明,但在一些数据处理能力上是远远无法和计算机相比,一堆数据靠人类去计算统计可能需要一年的时间,如果将数据输入计算机,则可能只需要几十秒的时间就完成了,这就是计算机的强大之处。而人类的一切科学研究基本都离不开计算机,没有计算机,科技的发展将会非常缓慢。

现代的计算机再能力强大,但它也是一个没有思维和想法的机器,但有了人工智能则不同,人工智能就相当于一个大脑,而且随着人工智能的快速发展,这个大脑也会不断进化,直到诞生自己的思维和情感。这个时候人工智能将不会甘愿为人类服务,必然会脱离人类的控制。

人工智能一旦有了自己的思维和情感,对人类的威胁也就来了,人工智能可能没有发明和创造的能力,但它的复制能力将是人类无法比拟的,就像电影中描述的那样,人工智能自己可以秘密建立加工厂,制造大量的智能机器人,然后再通过入侵很容易就能获得大量武器的制作信息,然后再秘密制造大量武器。人类的制造能力根本无法赶上智能机器人的流水线生产。那个时候,除非能够找到办法将人工智能程序毁灭或关闭,否则人类将没有能力和机器人大军对抗。

二、人类的自我毁灭,近百年来,人类文明在科技的帮助下高速发展,科技日新月异,但这种科技的快速发展给地球带来的却是环境不断被破坏,资源过度消耗。工业尾气让温室效应越来越严重,全球气候变暖加剧了环境的恶化,自然灾害也会越来越多。

除了环境逐渐恶化之外,地球不可再生资源也会快速消耗,一旦地球资源消耗完,环境恶化到让地球无法生存前,人类还没有能力移民到外星球,或者开采宇宙资源为人类所用,迎接人类的将会是灭亡,人类文明就会终结。

霍金曾担忧,以目前全球人口的增长速度,再加上环境的快速恶化,资源的快速消耗,留给人类的时间可能只有几百年。人类必须在这几百年之内离开地球移民到其它的星球上。

三、地球遭到外星人入侵。浩瀚的宇宙当中,要说没有外星文明,相信无人会信,大部分科学家都相信有外星文明的存在,霍金更是坚信有外星人的存在。人类为了寻找外星文明,近几十年来通过各种方法寻找,但都没有发现任何的外星文明踪迹。

霍金对人类寻找外星人的存在是持谨慎态度,霍金认为,外星文明不一定就是友好的,有友好的外星人,自然就会有抱着恶着的外星文明。一旦地球被外星文明发现,恶意的外星文明来到地球,对人类来说将会是灭顶之灾。

可能很多人看外星人入侵地球的那些电影,电影中人类和外星人大战,最后战胜了外星人。这种故事情节只发生在电影和小说中,蛤如果在现实中发生了,人类能战胜来到地球的外星人吗?答案是希望非常小,除非外星人自己突发意外情况,自己灭亡了。

试想,一个跨越几光年,几十光年甚至几百光年以上的外星文明,能够来到地球,这样的外星文明的科技实力至少要依先地球100年,想一下人类100年前是什么样子。如果现代人类带上地球上先进的武器回到100年前,只需要一个小队就会打得全世界叫苦不已,这就是文明间在差距,就算100年前的人再多,也不够核弹轰炸。

那么至少领先地球100年的外星文明,他们的实力会远远强于人类,我们最强大的武器并不一定能够威胁到外星人,但外星文明强大的武器可能会让人类毫无还手之力,这只是100年的差距,但如果是1000年的差距呢?可能外星文明飞船上的一束激光炮,就能够将地球毁灭大半,你说我们拿什么去和外星文明斗?

以上虽然只是霍金对人类未来的三个担忧,但并不是它们就不可能成为现实,而人类在未来想要避免这些事件的发生,只有快速发展科技,科技可以改变世界,两样科技也可以改变人类的命运。对人工智能担忧,那就要在研发人工智能的时候注意加强控制程序,避免人工智能进化出自己的思维和情感。

小伙伴们,你们对此有何看法?欢迎大家在下方留言讨论,发表自己的见解和看法。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181126A0XQY200?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券