前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >史蒂芬·霍金:忽视人工智能的危险或是致命错误

史蒂芬·霍金:忽视人工智能的危险或是致命错误

作者头像
机器人网
发布2018-04-12 15:01:14
7100
发布2018-04-12 15:01:14
举报
文章被收录于专栏:机器人网

当今世界上最著名的物理学家史蒂芬·霍金近日撰文警告人工智能(AI),其表示人工智能将是“人类历史上最重要的事件”,同时也将是“最后的事件”。

在英国《独立报》发表的专栏文章中,霍金和其他科学家们认为,忽视人工智能的危险可能是“人类历史上最严重的错误”,而且没有对可能包含的风险进行充分的研究。

文章列举了几种人工智能领域的成就,包括无人驾驶汽车,Siri和赢得“Jeopardy”的计算机。然而,“类似的成就在未来几十年其将带来的后果面前可能会显得很苍白。”

科学家们继续表示,“潜在益处是巨大的,文明提供的一切都是人类智慧的产物;我们不能预计当这种智慧被AI放大之后,我们可以得到什么。但是消除战争,疾病和贫困应该是最重要的事情。成功发明AI将是人类历史上最大的事件。

“不幸的是,这也可能是最后一件,如果我们不尝试学习怎样避免相关的风险的话。短期来看,世界各国的军队正考虑能够选择毁灭目标的自动化武器,联合国和人。。权组织已经倡议禁止相关的武器。从中期来看,就像Erik Brynjolfsson和Andrew McAfee在第二机器时代(The Second Machine Age)中强调的那样,AI可能会重塑我们的经济,在给我们带来大量财富的同时,也带来巨大的混乱。”

科学家表示,我们可能无法阻止机器人自我完善获得超级智能。“我们能够想象,AI可以驾驭金融市场、人类领袖,甚至发展出我们不能理解的军事武器,人工智能的短期影响取决于由谁来控制它,而长期影响则取决于它是否能够被控制。”

文章是由霍金与伯克利大学的计算机科学教授Stuart Russell,麻省理工学院的物理学教授Frank Wilczek和Max Tegmark合作的论文的一部分。

文章素材来自由约翰尼·德普(Johnny Depp)和摩根·弗里曼(Morgan Freeman)主演的新片《超验骇客》。电影描述了人类两种截然相反的未来。其中一条路,AI拥有非常强大的能力,是生活的重要组成部分,掌管着人类生活的方方面面。另一条则是完全相反的道路。不过霍金警告,也只能在科幻电影如此轻易忽视类似的人工智能。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2014-05-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器人网 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档