科学家总结说,地球上的文明可能会以三种方式之一被杀死。
利用数学模型,纽约罗切斯特大学的一个团队计算了随着人口增长以及气候变化的影响造成的混乱,地球将会发生什么。
发现人类可能会经历软着陆,逐渐死亡或全面崩溃。
逐渐消亡的是,当事情恢复正常之前,地球上70%的生命被消灭了。
令人沮丧的是,这被认为是最可能的结果。
最积极的结果是软着陆,这是我们避免大规模灭绝的地方。
这种情况发生在一个文明适应随着时间的推移而发生的天气和海平面剧烈变化,避开子弹。
全面崩溃意味着我们的星球太敏感了,无法从人类造成的伤害中恢复过来。
所有聪明的生活将很快消失。
在这个世界末日的情景中,即使行星转为使用可再生燃料来拯救自己免于灭绝,所造成的破坏有时甚至是非常糟糕,无法扭转。
科学家们使用他们绘制出外星世界可能历史的模型。
他们称这些社会为“外向文明”,并从他们的错误中吸取教训,可以帮助我们为气候变化的影响做好准备。
亚当·弗兰克合着者教授说:“鉴于超过10个十亿万亿行星在宇宙中可能存在的,除非自然是对像我们这样的cizviliations倒行逆施偏见,我们不是第一个出现的一个。
“这意味着从地球生物圈发展而来的每一个外向文明都有一段历史:一个出现,能力提高,然后可能缓慢消失或迅速崩溃的故事。
“就像曾经生活在地球上的大多数物种现在已经灭绝一样,大多数出现的文明(如果它们出现的话)可能早已结束。
“所以我们正在探索可能发生在别人身上的事情,以便深入了解可能发生在我们身上的事情” 。
斯蒂芬霍金说,这三件事可能破坏人类文明
有名的,他对黑洞和物理科学研究,世界著名物理学家斯蒂芬·霍金已经发出 一个明确警告的事情,他坚信会导致人类文明的消亡,而他们又远远超出三界他的警告可能会让你大吃一惊认为人类文明可能因全球变暖而结束的主流信仰。
首先,霍金对强大的人工智能(AI)非常警惕; 霍金强烈地认为,散发出智力等于或超过人类智能的人工智能可能会摧毁人类,并且是众多科学家之一,他写了一封 关于人工智能的风险(以及收益)的公开信函的 警告。突然之间,所有那些展示机器人毁灭人类的未来电影似乎都不是很牵强,是吗?终结者,少数派报告,变形金刚,Wall-E,Austin Powers,黑客帝国,星球大战 ; 这些电影导演是否给我们留言?
霍金还对人类侵略的潜在灾难性后果发出严厉警告。霍金认为,我们的侵略性天性可能会导致可能结束人类文明的灾难性事件,比如可能结束所有文明和灭绝人类的重大核战争。随着越来越多的暴力电影,电子游戏以及我们目前人类文明中更加暴力的行为,可悲地得到越来越多的暴力犯罪统计数据的支持,我们必须认同人类侵略是令人担忧的主要原因。当这些心理变态的成年人决定向更进一步轰炸整个世界的时候,被欺凌的青少年对他们学校开火的恐怖趋势是否会升级只是时间问题?
最后但并非最不重要的是,霍金表达了对外星人生活的担忧。霍金认为,如果聪明的外星人生活确实存在,它可能不会对人类友好,并可能旨在征服和殖民他们访问的任何行星。有这么多的外星人电影发布,很多人认为这是政府的方式,让我们熟悉外星人其实是真实的,并会试图消灭我们的人类。但是,这些外星人会不会是绿眼睛的怪物,还是他们会像你我一样?我们不禁想到了黑色电影中的那些场景......
我们很乐意听取您对上述哪一项认为是对人类最大的威胁的意见; 或者甚至是第四个尚未确定的威胁?
领取专属 10元无门槛券
私享最新 技术干货