首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

OpenAI欲开发安全AI,似乎困难重重不可完成

真正的人工智能正在路上,而我们还没有做好准备。就像先辈们无法理解从现代汽车到计算机诞生的所有事情,大多数人很难想象下一个十年里真正的AI技术会如何改变我们的生活,甚至,如果人工智能脱离了人类的控制,会让我们失去什么。

幸运的是,有一群人正致力于确保人工智能的诞生不是人类的灭亡。从Max Tegmark的未来生活研究所(Future of Life Institute)到哈佛肯尼迪政府学院(Harvard Kennedy School of Government)的未来学会(Future Society),世界上杰出的专家们正联起手来应对人类即将面临的最具颠覆性的技术进步以及最大的威胁。

讲到这里,或许我们可以认为从这种存在性威胁中诞生的最有名的组织就是OpenAI了。它得到了业内一些知名人士的支持,举个例子,SpaceX亿万富翁Elon Musk,他创立了OpenAI,但为了避免与特斯拉的利益产生冲突,今年离开了董事会;Y Combinator总裁Sam Altman以及来自PayPal的著名人物Peter Thiel,等等。如果有人有机会确保人类的未来,那当属OpenAI。

然而,问题总是存在的。当谈及创造安全的人工智能并管理这项技术时,这些伟大的头脑对于自己正在做的事情几乎是一无所知,甚至不知道从何下手。

战役前的黎明

有记者曾在迪拜会见了OpenAI的政策和道德顾问Michael Page。在自称“未来之城”的摩天大楼之下,他向记者倾诉了自己正在面临的不确定性。Page谈到了没有答案的问题,以及如果我们没有找到答案,便会为此付出极高的代价。

当被问及在OpenAI的角色时,Page回答说,他的工作是“研究高级人工智能的长期政策影响”。听起来这似乎是一种无形的、没有定义的东西,当然,事实也是如此。对此,Page也坦率地表示:“我还在努力地弄明白这到底是什么。”

Page试图描绘出一幅更好的当前状态的图景,但由于真正的人工智能实际上还并不存在,所以他的工作比普通的要困难得多。他指出,当政策专家考虑如何保护世界免受AI的侵害时,他们实际上是在试图预测未来。

正如他所说的,他们试图“找到失败的模式.....找到今天我们可能采取的课程,这可能会使我们处于一个无法摆脱的境地”。简而言之,这些政策专家正试图通过预测问题和今天行动来保护世界的未来。而问题在于,他们可能面临着一项不可能完成的任务。

对Page来说,他已经完全意识了这种让人不怎么舒服的可能性,而且也承认其存在。“如果可能的话,我想弄清楚现在我们可以做些什么。可是因为未来的不确定性,我们什么也做不了。”

事实上,问题并不止于此。也许人类可以找出为了保护自己免受AI威胁而需要做的事情,并意识到我们根本无法做到这一点。Page说:“虽然我们可以预测未来,但我们能做的却不多,因为这项技术太不成熟了。”

考虑到这个行业刚刚兴起不久,缺乏清晰的规划并不令人惊讶。我们还处于起步阶段,所以目前所做的都属于预测。现在,Page和他的同事们仍在试图阐明要解决的问题,弄清楚我们需要哪些技能以及哪些政策制定者需要参与其中。

基于上述的不确定性,当被要求具体预测人类和人工智能在未来一年或五年内可能出现的情况时,Page并没有给出虚假的希望,直接简单地表示“我不知道”。

当然,Page和OpenAI并不是唯一致力于寻找解决方案的人。因此,他希望通过大家的努力,可以尽快提出相应的解决方案——“希望在一年之内,我能找到答案。希望在五年内,会有更多的人考虑这个问题。”

那么,也许是时候我们所有人都对此进行思考了。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180316A1KH7E00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券