首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

著名哲学家、牛津大学人类未来研究所创始主任——尼克·博斯特罗姆

【演讲局独家】

尼克·博斯特罗姆

(Nick Bostrom)

尼克·博斯特罗姆是瑞典著名的哲学家,他提出如果我们在没有解决控制问题之前就引入了超级智能,人工智能研究的未来发展就会对人类的生存带来重大威胁。

博斯特罗姆警告说,除人工智能将接管世界和蓄意灭绝人类之外,即使给出一个无害的任务,超级人工智能也会进行优化,从而导致人类灭亡。

他说,尽管人工智能给我们带来很多益处,但解决控制问题仍然是当务之急。

一些人工智能领域的批评家认为,人工智能实际上并没有这么大的能力,只有在长期而且极端的情况下才会出现这种情况。

博斯特罗姆于1973年出生于瑞典的赫尔辛堡,他幼时厌学,高中的最后一年辍学在家自学。他努力学习各种学科知识,包括人类学、艺术、文学和科学。尽管被称为“严肃之人”,但他也参加过伦敦喜剧马戏团的工作。

他拥有哥德堡大学哲学、数学、逻辑学与人工智能学士学位,斯德哥尔摩大学哲学与物理学和伦敦大学国王学院计算神经科学硕士学位。

在斯德哥尔摩大学求学期间,他通过研究分析哲学家蒯因(W. V. Quine),研究了语言和现实之间的关系。

2000年,他获得伦敦经济学院哲学博士学位。他曾在耶鲁大学(2000-2002)担任教授职务,并在英国牛津大学担任英国科学院博士后研究员(2002 - 2005)。

博斯特罗姆出版了200多本著作,其中包括纽约时报畅销书《超级智能:路径、危险、策略》 、《人为偏见:科学和哲学中的观察选择效应。

2009和2015年,他入选《外交政策》“全球100位顶尖思想家”。博斯特罗姆从事超级智能工作,他担心这会对未来几个世纪人类的发展带来威胁——比尔·盖茨和埃隆·马斯克也持有和他类似的看法。

博斯特罗姆的研究关注人类的未来和长期结果。

他引入了“存在风险”的概念,并将其定义为“会导致地球上原始智能生物的灭绝或永久遏制其发展潜力的消极结果”。

博斯特罗姆和米兰·契尔科维奇在《2008全球灾难风险报告》中描述了存在风险与全球重大风险之间的关系,将存在风险与观察选择效应和费米悖论(Fermi paradox)联系了起来。

2005年,博斯特罗姆成立了人类未来研究院,该研究所是一个多学科研究中心,它促使一些杰出的数学家、哲学家和科学家们在此仔细思考关系人类的全球重要事务和重大问题。他是该中心的创始主任和存在风险研究顾问。

博斯特罗姆在《超级智能:路径、危险与策略》一书中提到,“超级智能的诞生意味着人类可能走向灭亡。”

博斯特罗姆引用费米悖论证明宇宙中的外星智能生命是其自身技术的牺牲品。

一台和人类智力相当的计算机会引发数字时空的智能大爆炸,从而创造出(刻意或无意中)摧毁人类的强大力量。

博斯特罗姆认为超级智能的力量无比强大,会导致无法想象的极端结果。比如要想计算Pi值,就需要让纳米技术制造设施覆盖整个地球表面,并且持续数天。

他认为存在风险是超级智能给人类带来的最大的最迫切的威胁,因而如何在这样一个实体形成之前控制它就成了非常艰巨的难题。

预约尼克·博斯特罗姆演讲及出席活动

请联络演讲局

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180104B0QFN500?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券