首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

科学巨匠霍金去世,预言AI可能摧毁人类,人类终将离开地球

经典

大学生找兼职实习好工作 上薪易高求职

著名物理学家史蒂芬·霍金

1

霍金逝世,一代天才陨落

3月14日中午消息,据多家英国媒体报道,著名物理学家史蒂芬·霍金今日去世,享年76岁。

斯蒂芬·威廉·霍金(Stephen William Hawking),1942年1月8日出生于英国牛津,英国剑桥大学著名物理学家,现代最伟大的物理学家之一、20世纪享有国际盛誉的伟人之一。霍金毕业于牛津大学和剑桥大学,并获剑桥大学博士学位。

1959年17岁的霍金入读牛津大学的大学学院攻读自然科学,用了很少时间而得到一等荣誉学位,随后转读剑桥大学研究宇宙学。

1963年,21岁的他不幸被诊断患有肌肉萎缩性侧索硬化症即运动神经细胞病,全身瘫痪,不能言语,手部只有三根手指可以活动。当时,医生曾诊断身患绝症的他只能活两年,可他一直坚强地活了下来。

1965年,23岁时他取得了博士学位留在剑桥大学进行研究工作。

1979至2009年任卢卡斯数学教授,主要研究领域是宇宙论和黑洞,证明了广义相对论的奇性定理和黑洞面积定理,提出了黑洞蒸发理论和无边界的霍金宇宙模型,在统一20世纪物理学的两大基础理论——爱因斯坦创立的相对论和普朗克创立的量子力学方面走出了重要一步。获得CH(英国荣誉勋爵)、CBE(大英帝国司令勋章)、FRS(英国皇家学会会员)、FRSA(英国皇家艺术协会会员)等荣誉。

2012年4月6日播出的热播美剧《生活大爆炸》第五季第21集中,史蒂芬·霍金本色出演参与了客串。2017年为英国BBC录制纪录片《探索新地球》。物理学家斯蒂芬·霍金11月6日表示,技术有望逆转工业化对地球造成的一些危害,有助于消除疾病和贫困,但人工智能需要加以控制。

2017年11月,霍金预言2600年能源消耗增加,地球或将变成“火球”。

2018年3月14日,霍金去世,享年76岁。

霍金经典语录:

“爱因斯坦错了,他说‘上帝不玩色子’。对黑洞的研究表明,上帝不光玩色子,甚至有时候他会把我们弄糊涂,因为他把它们丢到了看不见的地方。”

“我注意过,即便是那些声称一切都是命中注定的而且我们无力改变的人,在过马路之前都会左右看。”

“我的目标很简单,就是把宇宙整个明白(路人甲:‘霍金是东北的?’)它为何如此,它为何存在。”

“在我 21 岁时,我的期望值变成了零。自那以后,一切都变成了额外津贴。”

“如果生活没有了乐趣,那将是一场悲剧。”

“永恒是很长的时间,特别是对尽头而言。”

2

再次示警,世界末日在逼近

不知道大家有没有看过科幻美剧《西部世界》,剧中机器人觉醒、反叛,这或将在现实中发生,甚至情况还会更糟糕。

继2015年9月抛出“人工智能威胁论”之后,217年著名物理学家史蒂芬·霍金(Stephen Hawking)再次表达了他对人工智能(AI)的担忧:AI可能会通过核战争或生物战争让人类灭亡。

AI可能摧毁人类,人类必须尽早防止威胁。

人工智能技术一直是霍金关注的重点。

霍金表示,世界的毁灭已经逼近,人类创造了可以毁灭世界的人工智能,却至今仍无能力可以避免这个灾难。

自从人类文明形成以来,来自生存能力优势群体的侵略就一直存在,而未来人工智能进一步发展便可能具备这种优势,它们可能会通过核战争或生物战争摧毁我们。

霍金认为,人类需要利用逻辑和理性去控制未来可能出现的威胁,必须建立有效机制尽早识别威胁所在,防止新科技(人工智能)对人类带来的威胁进一步上升。

霍金还就如何应对人工智能的威胁给出了自己的建议。霍金认为,人类可以组成某种形式的“世界政府”来防范人工智能可能带来的威胁,但他同时认为“世界政府”本身也有问题,因为这样一个政府可能会施行暴政。

世界末日逐步逼近,霍金多次做出预测

霍金一直对AI带来的潜在挑战表示担忧。2015年9月,霍金在美国网站reddit的AMA(问我任何问题)专栏中谈到,他担心聪明能干的AI会让人类灭亡。霍金表示:

一个超级聪明的AI可以非常好地实现它的目标,如果这些目标都没有与我们人类一致,我们人类就麻烦了。

2016年10月,霍金再次表示,人工智慧虽然能为人类消除难题或疾病,但也有可能成为凌驾于人脑的存在,甚至衍生出有自我意识的武器,就像电影《终结者》当中的情节一样,过度进化的人工智能会试图反噬人类。

2016年11月,霍金还对地球末日做出过预测。他认为,按照目前人类活动的强度,地球的寿命只剩下1000年时间,届时如果人类还没有找到另一个移民星球的话,那么将面临毁灭命运。

AI潜在威胁受到越来越多科学家关注

近年来,随着人工智能技术蓬勃发展,其潜在的威胁受到越来越多科学家的关注。

英国牛津大学教授、人类未来研究所创始人Nick Bostrom表示:

我认为改善全球治理很有必要,不仅可应对AI带来的危险挑战,也可解决摆在我们面前的其他巨大挑战。随着世界不断分化,我们在不断开发出越来越强大的工具,我不确定人类是否能够无限期生存下去。

对比霍金等人“人工智能将威胁人类”的观点,普林斯顿大学计算机科学教授Edward Felten更关注眼下人工智能技术带来的影响,他表示:

AI主要有两个经济风险:第一,工人具备的技能与未来工厂所需要的技能可能不匹配。第二,通过增加资本所有者和某些高级技工的回报,AI可能加剧经济不平等性。

Edward Felten认为,计算机科学领域还不存在完美基础,可以促使机器智能水平突然加速提高。上述问题可以通过调整公共政策解决,比如重新分配生产力。

3

人类需要离开地球

霍金曾在2016年6月重申了自己对于太空移民的看法:“如果人类还要继续活一百万年,我们的未来就是大胆地去没有人去过的地方,我深信人类需要离开地球。”

当地时间6月20日,在挪威特隆赫姆举行的庆祝科学与艺术的斯塔尔马节上,霍金发表了上述言论。

霍金发表演讲

“我们正在耗尽空间,唯一可去的地方就是其他星球,现在是探索其他太阳系的时候了,向外太空扩展可能是拯救我们自己的唯一方法,我相信人类需要离开地球。”霍金补充道。

谈到具体措施时,霍金说人类需要在2020年完成月球登陆,并努力在接下来的30年建立月球基地。这样一来可以帮助我们在2025年前将人类送到火星。

在霍金看来,对其他行星进行殖民化已不再是科幻小说,向外太空开发将会完全改变人类的未来命运。

NASA的月球计划

霍金并不是唯一支持月球登陆的人。中国、美国、欧洲国家都制定了自己的月球计划。根据NASA公布的火星计划,建立轨道月球站将是未来完成红色行星使命的关键步骤。

中国也对月球表现出了很高的兴趣。根据此前公布的探月计划,中国对月球的探索分为分为绕、落、回三个阶段,自2004年开始启动。中国的计划中还包括在2020年将宇航员送往月球。

ESA月球基地设计图

欧洲航天局(ESA)负责人扬·沃尔纳(JanWoerner)也表示,他们计划在2024年建造一个月球基地,目前正与俄罗斯进行调查,以评估潜在的地点。

“我希望月球能成为各个竞争的国家的统一目标,这是我们所有人共同的挑战。一个新的雄心勃勃的空间计划将激励(年轻人),并激发对诸如天体物理学和宇宙学等其他领域的兴趣。”霍金说。

感谢你曾带给人类的新知。

祝你在另一个世界安好。

God bless you.

小兽综合自网络

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180314G0WUKE00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券