首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

17.关于超人工智能来临,霍金的忧虑

作者 | Harper

审核 | gongyouliu

编辑 | auroral-L

其实担忧超人工智能,对人类未来持悲观态度人不少,其中理论物理学家《时间简史》的作者霍金就是最具影响力的一个。很遗憾的是,在2018年的时候霍金先生去世了。但在谷歌AlphaGo在公众中掀起AI热潮之前,霍金就通过媒体告诉大家完全人工智能的研发,可能意味着人类的末日。

作为地球上少数有能力用数学公式精确描述和推导宇宙运行奥秘的人之一。霍金的宇宙观和科技史观无疑是值得重视的,事实上,霍金并不否认,当代蓬勃发展的人工智能技术已经在许多行业发挥着至关重要的作用。但他真正所忧虑的是机器,是人在进化速度上的不对等性。他说,人工智能可以在自身基础上进化,可以一直保持加速度趋势,不断重新设计自己,而人类,我们的生物进化速度相当有限,无法与之竞争,终将将被淘汰。

此外,霍金同时还担心人工智能普及所导致的人类失业问题。霍金说,工厂自动化已经让众多传统制造业工人失业。人工智能的兴起,很有可能会让失业潮波及中产阶级,最后只给人类留下护理、创造和监督的工作。

但是基本上,霍金的担忧还是建立在人工智能技术将以加速度的趋势不断增速发展的基础上,如果我们假设这一基础的正确性,那么,霍金的逻辑推论与我们之前谈到的奇点理论并没有本质的区别。那反之,如果人工智能在未来的发展,不一定永远遵循加速度趋势,那么霍金有关人类终将淘汰的结论就未必成立。

特斯拉与space X公司创始人Elon.Musk也与霍金有大致相似的担忧。但事实上,从行动上看,霍金和Musk并不是简单的悲观主义者。他们在警告世人提防人工智能威胁的同时也在积极行动,试图为人类找出应对未来的潜在危险的对策。马斯克说,也许在国家层面或者国际层面,必须有一种这方面规范的监管机制。并且除了呼吁建立监管机制之外,Musk还与Sam.Altman一起创立了非营利性质的科研公司open AI。

在谈到创立open I的初衷,Musk说,为了保证一个美好的未来,我们最需要做什么,我们可以冷眼旁观,我们也可以鼓励立法监管,或者,我们还可以将那些特别关心如何用安全的,对人类有益的方式来开发AI的人,合理地组织起来研发AI。

如果说这个世界上还有几家纯粹理想主义的公司的话,open AI一定算一个。open AI一面聚集了一批AI领域的顶尖高手研发最前沿的AI技术,甚至探索实现强人工智能的可能性。一方面反复强调自己的使命是研发安全的人工智能,通过实践来探寻将人工智能技术的潜在威胁降至最低的方法。

事实上,目前open AI所开展的工作和其他人工智能科研机构所做的并没有本质的不同。据说open AI最重要的目标就是发表有影响力的文章,或许Musk和Altman的意思是说,既然奇点来临无法避免,那不如自己投入,至少当危险来临时我们对威胁的本身的理解会更加深刻。

2017年年初,霍金和Musk均表示,为了防止人工智能威胁人类,他们支持加州阿西洛马会议提供的23条基本原则,这23条基本原则,涵盖了三个范畴,科研问题、伦理和价值观、长期问题。阿西洛马23条基本原则,从方法,特征,伦理道德的多方面限定未来的人工智能可以做什么,不可以做什么。

所以应当说在担忧未来人工智能威胁的人中,霍金和马斯克还是一直抱有一种非常积极的态度的。他们一方面基于自己的逻辑判断相信人类未来面临机器威胁的可能性非常大,另一方面又利用自己的影响力,积极采取行动,尽可能将人工智能置于安全,友好的界限内。

因此从这个角度讲,霍金和musk比那些盲目的悲观主义者,或者因未来的不确定性而丧失勇气的人强很多很多倍。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20211004A02IT100?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券