轮椅上的科学巨匠霍金,曾对于人类提出三点担忧,真是细思极恐

人类在文明提高的同时,对于科普知识上的诉求也与日俱增,很多天文爱好者,物理研究者都纵身一跃,跳进知识的海洋畅游书海,而富有责任心的霍金先生,一面用学识和推论,为科学事业默默付出着。另一方面也在看到人类科技蓬勃发展的同时,对于地球,对于未来,对于人类,产生了一些堪忧。咱们今天来一起看看他对人类的三大担心吧!

1. 人工智能会代替人类。很多人觉得,人类缔造了智能时代,是地球的霸主,人工智能根本影响不到人类的地位。可是霍金先生却认为,人工智能是人类发展史上最糟糕的错误,极有可能演变成人类的终结者。从计算机的诞生以来,人类的科学才得以飞速的发展。但是人类虽然发明创作了它,却在数据处理上远远不及计算机。

以往需要演算一整年的数据,现在仅仅需要几秒钟。这是计算机的强悍之处,也是被人类所依赖的。没有了它们,科技前进的时间就会变慢。可是计算机虽然强大,但是它没有思维,是个冷冰冰的机器。但是有了人工智能之后,它们像是有了另一个核心的大脑,随着时间的推移,大脑也会进化,只到产生情感和独立思维。

那时候,人工智能就成了想要摆脱人类的时候,虽然它们无法进行独立的思考,进行发明创作,进行改进。但是它们的复制能力却是首屈一指,人工智能自己可以独立建立工厂,制作出更多的同胞出来。通过入侵系统,它们甚至可以对于武器系统进行复制,从来对人类造成威胁。而人类思维就算再强大,流水化的生产水平却对于人工智能没有办法。除非彻底销毁人工智能的所有程序,否则,人工智能就成了人类的终结者。

2. 外星文明入侵地球。在宇宙之中,虽然迄今为止人类还没有发现外星文明的踪迹,但是科学家却很是肯定外星天体生命的存在。霍金更是对此深信不疑,人类为了探索生命迹象,进行了千方百计的搜寻,却依旧一无所获。而霍金认为,在外星文明也许并不是友好的礼仪之邦,有友好就有邪恶,如果是被友善的外星文明发现也许科技力量会是直线提升的趋势,可是一旦被善于侵略的外星文明所搜寻到,那么人类可将是会彻底沦陷的。

假设,外星文明可以跨越几十光年的距离穿越宇宙来到地球,从出行方式和速度上就能显现出,它们的科技实力要领先地球至少百年之上,反过来再思索一下地球100年之前的样子,实在是弱小不堪呀。带着现在先进的武器,哪怕是一小纵队,回到一百年之前,想要颠覆地球简直就是轻而易举,几遍是人再多,也抗不过核武器的威力吧。

而领先地球100年的外形文明的眼中,我们人类的实力简直就是浮游一般,100年的差距就是天壤之别,更别说上千年,上万年的差距了,也许外星文明手持的激光武器,一颗子弹就能将地球销毁一半,当然了这都是猜测,可是假如成真呢?真是细思极恐!

3. 全人类会自行灭绝。这种担忧是因为,自工业革命之后人类文明虽然在迅猛发展,但是对于生态环境的破坏,对于资源的滥用却是致命的。全球气候愈发恶劣,资源过于单一而且不易再生,随之而来的自然灾害也日渐加重。长此以往,地球上的资源最终会消磨殆尽,环境会恶化到一种难以想象的地步。人类若是无法开采新的清洁型能源,无法移民到外太空,无法在外太空进行资源开发,那么最终人类文明就会烟消云散彻底灭绝。

霍金的担忧在于加速的人口增长,伴随着恶化的环境和资源损耗,人类剩余的时间也许就剩几百年,这个时间里如果逃离不了地球,那么文明最终只能被毁灭。这就是霍金对于人类,对于地球,对于未来的三个堪忧,究竟会不会成为现实我们还无从得知,但是想要排除这些忧患一定要大力发展科学力量,只有科学的思维,才能是打开新世界大门的钥匙。网友们对此有什么看法呢?欢迎关注留言哦!

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181206A1DVGB00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券