首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

3月17日,你不锻炼就赶不上宇宙殖民事业

霍金的三个预言

人工智能可能导致人类的灭亡;

外星生物的入侵可能会给人类带来灭顶之灾;

人类不殖民太空将会消亡。

人工智能的风险

霍金担心当人工智能跨越了某个奇点就会出现人类无法把控的现象,他认为“到时它(机器)将可能以不断加快的速度重新设计自己,而人类则受制于生物进化速度,无法与其竞争,最终被超越。”

确实,如果AI超越智能,产生智慧,那么它们高度的自发秩序和散沙化的人类相比必然更具竞争力。至今为止,人类相比其他物种所具备的优势,除了智力,当然还有组织度,一旦AI的自组织能力超越了人类,人类自然无法相比。

这种远景似乎还只是存在于想象之中,然而AI对人类的冲击却近在眼前。AI能力越强,人类的舒适性越高,只有人体的机能在每况愈下。

AI起义很远,被AI解构的社会已然成为现实。

外星人入侵

霍金认为,如果未来人类和外星人有了交集,那么一定要谨慎,犹如哥伦布发现新大陆之后,对新大陆居民而言就是灭顶之灾。

世界上所有的阴谋论者都将外星人预定成“恶”的使者,在他们眼中,高智慧的外星人必将给人类带来灾难。这种态度不是谨慎,而是带有敌意。

先入为主的抗拒源于“以己度人”,我既是邪恶的英灵,那么你必然被邪恶所掌握。其实,如果外星人想殖民你,你根本无法抗拒,文明的秩序总是从高处冲向低地,不是吗?

地球或将不再宜居,人类需要殖民太空

人类会由于自身的原因,例如人口爆炸、核威胁、环境污染等因素造成地球不再宜居,那么到时候殖民宇宙就变成延续人类生命的不二选择了。

如果我们回头再看第二个预言的时候,我们便会发现,原来我们害怕高等外星生物殖民我们的同时,期待着殖民低等外星生物的星球。

人类的欲望永无止境,正是自身的欲望导致我们的星球一步步走向末路,到头来,我们却必须做出一个我们自己害怕的选择。

被过度消费和装饰的霍金

世界上只有一个霍金,然而被包装出来的霍金却有无数。你看到的又是哪个呢?

人类总是无法摆脱自己心中的利益掌控,肆意刻造属于自己的霍金。只要对自己有利,那么霍金原来是不是那样并没有关系,我觉得他是那样的就好。也许我们掌握的材料都没有问题,不同的只是解释而已。

作为个人而言,或许现在放下手中的AI,赶紧锻炼身体,练好必要的机能,或许还能赶上未来宇宙殖民的大潮,成为一代“球父”也未可知哦!

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180317G0KAA500?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券