首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

霍金辞世:留给人类四条警告——人工智能、核战争、全球变暖和转基因病毒

以最崇高的敬意与缅怀转发此文。

(人民食物主权论坛按:斯蒂芬•霍金,本世纪最伟大的物理学家之一,3月14日,带着他对人类的担忧、对地球的牵挂溘然长逝。霍金生前一直在忧心着人类的未来。数年前,在BBC的讲座上,他就公开表达了对于科技发展的忧虑,认为不加限制的科技进步可能会导致地球走向灭亡,转基因技术就是其中之一。霍金说:“我们目前并不完全清楚基因的运作方式。修改DNA的一部分并非一直会带来预想的结果,而是有可能制造出其它的意外,比如说难以控制病毒的出现。”这种不可控制的人造病毒能导致人类毁灭。只要我们认真考量,就不难发现,霍金的警告绝不是危言耸听。牢记霍金辞世之前对人类的警告,让他牵挂的地球与人类能够永续发展,是我们对他最崇高的敬意与缅怀!2018-03-14过客编译)

正文

在BBC年度里斯讲座上,物理学家史蒂芬-霍金称,科技的进步可能导致世界灭亡。霍金称:“尽管地球在特定年份发生灾难的几率很低,但是它会随着时间逐渐增高,并且在下一个千年或者万年之内成为必然。到那时我们应当已经进入到太空,并且到达其它星球,因此地球上的灾难并不意味着人类的终结。”霍金在讲座上对可能导致地球灭亡的可怕场景进行了预测。今天,在这位伟大的物理学家辞世之日,我们重新梳理了霍金生前预测的可能会毁灭人类的四大威胁。

(2002年霍金在浙江大学与中国学者对话)

警告之一:人工智能

据英国《每日邮报》报道,英国物理学家史蒂芬·霍金在接受美国王牌脱口秀主持人拉里·金(Larry King)的采访时称,披着数字助手和无人驾驶汽车外衣的人工智能(AI)已经开始站稳脚跟,终究会带来人类的末日。他还表示,机器人的进化速度可能比人类更快,且它们的终极目标将不可预测。

采访中,霍金一如既往地表现出对人类未来的担忧。他说:“我不认为人工智能的进化必然是良性的。一旦机器人达到能够自我进化的关键阶段,我们无法预测它们的目标是否与人类相同。人工智能可能比人类进化速度更快,我们需要确保人工智能的设计符合道德伦理规范,保障措施到位。”

这不是霍金第一次警告机器人将会起来反抗。霍金也曾表示,成功创造人工智能可能是人类史上最伟大的事件,不幸的是,也有可能是最后一个。他认为,数字个人助理Siri、Google Now以及Cortana都只是IT军备竞赛的预兆,未来数十年竞赛将更加激烈。

警告之二:核战争

霍金呼吁人们要具备更多的同情心,否则人类的侵略性和核武器技术的进步可能导致我们人类的灭亡。霍金去年就曾对《独立报》称:“我最希望改正的人类缺陷就是侵略性。在穴居人时代,侵略性或许会使人们在食物、领土或者配偶的竞争上更具优势,但是现在它可能导致我们人类灭亡。

警告之三:全球变暖

气候变化正在继续加强,而且我们无法预知其发展。霍金称:“我们并不清楚气候变化到什么程度才会停止,但是最糟糕的情况就是地球会变得像金星一样拥有250度的气温,而且会下起硫酸雨。而人类将无法在这种条件下生存。”

警告之四:转基因病毒

霍金警告称,转基因病毒可能会灭绝整个人类种族。我们目前并不完全清楚基因的运作方式。修改DNA的一部分并非一直会带来预想的结果,而是有可能制造出其它的意外,比如说难以控制病毒的出现。霍金称,超乎我们想象的耐抗生素病毒的出现和发展只是个时间问题。

霍金称,既然人类在继续进步,那么重要的是我们要对科技领域进步带来的破坏保持清醒的认识。到地球上发生重大全球灾难的时候,我们可能早已安全到达太空。但是我们仍然需要继续付出全部的努力来避开这些威胁,因为我们或许无法在一百年内建造可自给自足的殖民地。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180317B0YLPO00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券