首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人类科技越发达将面临的灭绝危险也就越大!

人类在地球上发展出了智慧文明,那么这地球之外,有比人类更高级的文明吗?这是一个仁者见仁,智者见智的问题,大部分人都认为应该是有的,因为宇宙太大了,但是也有的科学家则认为很可能不存在除地球外的外星发达文明,主要是两个原因,一是一个星球上能进化出生命就很不容易了,再进化出像人类这样的高等智慧生物,则更加不容易;还有另外一个重要的原因则是:一个星体的文明程度越高,则其自身越危险,其自我毁灭的可能性就越高,所以越是高级的文明,就越是难以存在。

为什么这么说呢!其实他们的推测并非没有道理,如今科技的发展实在太快了,但是这也让很多人意识到这样一种情况:就是在科技的快速发展之下,人类面临的危险也越来越大。这样下去,科技也会一步步赋予人类各种毁灭世界的手段,所以现有的人类文明世界被人类毁灭的可能性正在不断的增加。

当掌握了一种具有毁灭性的科技能力之后,人类的不同族群都很擅长用它来威慑自己的对手,比如现在的很多国家,如美俄、印巴,朝韩,以阿等,都是依靠拥有核武器来威慑对方的,但是,一旦发生战争,这种毁灭性武器就会给全人类造成灾难。光美俄两国拥有的核武器就可以毁灭地球生命几十次,而现代的基因武器,则可以定向的杀死某些人类族群,一旦交战,双方都释放这样的武器,则有可能同归于尽。

即便不发生战争,科技也一样会给人类带来毁灭性的危险,比如人工智能技术,小编私下认为它是比核武器和基因武器更危险的“人类终结者”,因为在都拥有核武器的情况下,族群和国家之间都不敢轻启战端,因为谁也不想在灭亡对方的同时被对方灭亡,但是人工智能却不涉及人类之间的矛盾,且目前全人类都在追求人工智能的更加先进,所以它无法阻止。

人类对更高端人工智能技术的追求,终将赋予人工智能以意识和超越人类的能力,人工智能技术的发展,很可能会把人工智能变成一种生命体,这终将演变成人类与人工智能生命体之间的较量,在这种各方面都比人类高级许多的生命体面前,人类的胜算十分渺小,所以人工智能替代人类几乎是难以阻止的!

那么如何避免上述的情况出现呢?只能是人类在认知上和道德上有大的进步,对科技的发展提前打算和做出预防性的安排,建立起超前,实用,合理,完善的科学伦理和制度,世界各国都应该严谨遵守,以求完全杜绝科技毁灭人类的事件发生。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180823A0ZVN900?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券