科学技术是人类社会发展的助推器。但随着科技水平和人类好奇心的增长,科学家对科学实验的设想更加大胆,这势必会给人类带来麻烦。比如这两种科学实验:人造黑洞和人工智能。
人造黑洞,最早提出于20世纪80年代,由加拿大不列颠哥伦比亚大学的威廉·昂鲁教授提出,而世界上第一个“人造黑洞”在中国东南大学实验室里诞生。
这个“人造黑洞”是两名中国科学家首次制造出可以吸收周围光线的人造电磁“黑洞”,一种把太阳能转化为电能的全新方法。它非常的“迷你”,但任何经过的电磁波或光,都不可能逃离它的引力。
随后,欧洲核子研究中心建成了世界上最大的粒子加速器设施。理论上来说,这个粒子加速器每秒钟就能制造出一个人造黑洞出来。
假如,被制造出的黑洞不受人类控制了(毕竟人类对于黑洞了解的太少),那么它将威胁地球上的所有生命。所以,关于人造黑洞风险的争论,一直是一个非常具有争议的物理话题。
关于人工智能方面,科学家一直希望人工智能能够解放人类的劳动力。但正如霍金教授说的,人工智能的崛起,在人类历史上确实是一件好事,但是也可能是一件最为糟糕的事情。
一旦这些机器人拥有了自己的意识,并且能够自我的学习制造,人类和机器人之间将爆发不可避免的战争!
如同《终结者》电影一样,人类失去了对人工智能的控制后,将会在各个方面落后人工智能机器。在人工智能和人类的战争中,势必会处于弱势一方,更甚至被人工智能统治。
无论是人造黑洞或是人工智能,它们的出现带给人类的不单单是解放劳动力或是促进科学发展;我们必须明白他们任何一种都足以毁灭地球。
领取专属 10元无门槛券
私享最新 技术干货