1 新智元编译1 来源:Nature 译者:刘小芹 是什么让我们对人工智能(AI)感到忧心?白宫上周发布的报告是对智能机器可能带来的威胁的最新报告。Nature上周发表的评论文章提出,科学和政治关注极端的未来风险可能会分散我们对已经存在的问题的注意力。 这种关注的部分原因来自对AI可能发展出自我意识,从而带来有关人类存续的严重威胁的过度关注。最近的一些新闻显示,受人尊敬的思想家如比尔·盖茨和斯蒂芬·霍金都在关注机器的自我意识。某种程度上,机器的某个软件将“觉醒”,机器自身的欲求将优先于人类的指示,从而威胁
Bengio在访谈中透出了一股浓浓的「忧郁风」,表示他对自己一生所追求的事业感到某种程度上的迷失。
AI这几年突然火了起来,上世纪70年代的理论,沉寂了几十年,在近几年才大放异彩,从台后走到台前,万众瞩目。 让AI被大家熟知的一个重要事件,要数阿尔法狗,打败了人类围棋界的最顶尖高手;于是人们奔走相告,人工智能来了,人类危险了! 之后,DEEPMIND又推出了阿尔法zero,阿尔法狗的弟弟;这个弟弟更加厉害,哥哥之前要成长几个月才能打败人类,而弟弟从无到有,只花三天时间就可以打败哥哥了!而且,更可怕的是,哥哥之前还是学习人类的经验,站在人类肩膀上,而这个弟弟,完全都是自学成才,并且它的成就突破了人类的思
AI正被应用在各大领域,但到目前为止,我们还无法评估这些AI可能会带来多大的危险或多大的威胁。 今年早些时候,一群世界专家召开会议,讨论世界末日的情况和应对这些情况的方法。但问题是他们发现讨论人类面临
大数据文摘作品,转载要求见文末 编译 | 宁云州、钱天培、杨捷 日前,在世界最大的人工智能会议之一的IJCAI 2017上,116名世界领先的机器人和人工智能公司的领导人联名发布了一封公开信,敦促联合国紧急处理可致命自动武器(通常称为“杀手机器人”),并禁止它们在国际上使用。 116位AI和机器人界大佬联名呼吁禁止“杀手机器人” 随着人工智能的发展,计算机开始在各个领域上渐渐超过人类,近些年更是在围棋甚至Dota2上也超越了人类,而作为AI特殊的应用领域之一,自动武器系统的危险性不言而喻,如果被别有用心之人
自从“AI”一夜走红,关于“AI是否会成为人类‘终结者’”这一问题的讨论就从未停止。1950年,著名科幻作家阿西莫夫提出“机器人三定律”;上周,谷歌联合OpenAI、伯克利和斯坦福的学者联合发布“AI
---- 新智元报道 编辑:编辑部 【新智元导读】随着ChatGPT大火,多位AI界巨佬发出预警:有朝一日,它可能真的会消灭人类。 最近,ChatGPT的大火,让人看到第四次科技革命大门开启的迹象,但也有很多人开始担心,AI是否有消灭人类的风险。 不是夸张,最近多位大佬,已经表达了这样的担忧。 ChatGPT之父Sam Altman、人工智能教父Geoffrey Hinton、比尔盖茨、纽约大学教授Gary Marcus最近纷纷提醒我们:别太大意,AI真的可能会消灭人类。 而Meta首席AI科学
---- 新智元报道 编辑:编辑部 【新智元导读】入职谷歌10年后,人工智能教父Hinton选择离职。对于造就了如今AI技术繁荣的神经网络,Hinton表示:这是我毕生的后悔。 一觉醒来,整个科技圈惊掉了下巴!!! 深度学习泰斗、神经网络之父Geoffrey Hinton突然宣布离职谷歌。 为了能够自由谈论人工智能风险,而不考虑这对谷歌的影响。 纽约时报的报道中,Hinton直接警示世人:注意,前方有危险,前方有危险,前方有危险! 而正是对人工智能风险深深地担忧,让这位深度学习巨佬直言:「我对
编译丨辛西娅 审核丨维克多对于人类社会,人工智能(AI)带来的最大威胁是什么?好莱坞科幻电影的“想象”提供了答案:它逐渐进化,获得人类思考能力,然后变成霸主,奴役或毁灭人类。也有些观点认为:在AI不知不觉杀死所有人之前,会存在许多危险情形。 2022年1月份,IEEE Spectrum访谈了多位技术专家,列举出了当前6种AI危险事例,这些危险比科幻电影的描述“风平浪静”,却同样具有威胁性,如果放任自由会有意想不到的后果。它们分别是:虚拟定义现实、AI军备竞赛、隐私透明、斯金纳箱现象、AI偏见以及过度担忧AI
5月初,白宫与谷歌、微软、OpenAI、Anthropic等AI公司的CEO们开了个会,针对AI生成技术的爆发,讨论技术背后隐藏的风险、如何负责任地开发人工智能系统,以及制定有效的监管措施。
上世纪40年代,奥本海默的发明,如同天地初开,彻底重塑了世界的面貌。原子弹的问世,带来了一场空前的毁灭危机,让人类面临前所未有的生存考验。
被誉为深度学习三巨头之一的Yann LeCun一直是乐天派,他不止在一个场合表达他对人工智能(AI)发展的乐观预期。例如:“AI是人类智慧的放大器,AI越强大,人类就越聪明,更快乐和更有经济效率。”
△ 伊隆·马斯克,特斯拉及OpenAI联合创始人,在SpaceX猎鹰9号火箭部件内部 2010年摄于佛罗里达州 卡纳维拉尔角 王新民 允中 编译整理 量子位 出品 | 公众号:QbitAI 《华尔街日报》最近有篇文章说,硅谷钢铁侠伊隆·马斯克又创办了一家公司:研究脑机接口技术的Neuralink。 就是你们熟悉的那个马斯克,他的名字后边,可以写上一长串的公司:移动支付公司PayPal、电动汽车厂商特斯拉、火箭公司SpaceX、太阳能公司SolarCity、非营利人工智能组织OpenAI、超级高铁Hype
- 因此,这些人工智能需要是开放的平台,这样每个人都能参与进来,帮助它们学习和优化。
文章主要讲述了剑桥大学一位研究人员声称人工智能很快就会超越人类的理解,并将人类的生命置于危险之中,因为他们没有进化的枷锁。人工智能的能力将在今年激增,许多人预测人工智能将会有重大突破。然而,也有人警告说,我们需要非常小心使用这些功能非常强大的机器,因为它们可能会超越人类的理解,带来危险。量子计算的突破是AI开发的一大步,为机器提供了一种“变得比我们聪明”的方法。研究人员警告说,我们需要认识到我们在创造人工智能的错误,直到为时已晚。
对此,多数小伙伴选取了嘲讽的语调,激励团队早日开源:不如改名ClosedAI算了。
很多AI从业人员对他很反感,认为他在危言耸听,但因为他自己的名人身份,对AI的过度警惕和反对给实际研究工作带来了困难。
让我感到意外的是,那些不同意Kurzweil的专家,绝大多数并不是全盘否定。当他们读到这些对未来的怪异描述时,他们并不是直接批评“很明显这些不会实现”,而是认为“如果我们能安全的过渡到超级AI,这些是有可能的,但超级AI很难实现。” Bostrom是一位警告AI危险性的主要人物,他也承认: “很难想象,超级AI能解决问题或间接帮助我们解决问题。配备先进的纳米技术,一台超级AI就有能力帮助我们搞定疾病,贫穷,环境的破坏以及各种无谓的煎熬。同时,它给予我们无限的生命,通过纳米医学
大数据文摘转载自学术头条 他因在人工智能(AI)、深度学习和人工神经网络领域内做出的成就而知名,一度被称为“(现代)AI 之父”或“深度学习之父”。 他提出的长短期记忆网络(LSTM)被谷歌、苹果、亚马逊、Meta 等科技巨头公司应用于实际业务,以及疾病预测和音乐创作等,被《彭博商业周刊》称为“最具商业化的 AI 成就”。 他就是计算机科学家 Jürgen Schmidhuber,一位在 AI 社区充满争议的人物,“(现代)AI 之父” 或 “深度学习之父” 的称号也并不令所有人信服。 有人说,Schmid
【新智元导读】大家都在谈论 AI,但所指却不尽相同。本文旨在简明扼要地梳理 AI 概念,对于狭义 AI、AGI 和有自我意识的 AI,各用一个视频来阐明其含义。 你肯定已经注意到了,即使是在技术界以外,人工智能(AI)也已经成了流行语。全球数以百计的创业公司都在用 AI 诠释自己。但还有另外一些声音,宣称人类尚未创造出 AI。这两种说法有可能都是正确的吗? 让我们更深入地了解一下当下 AI 的真正含义,相关术语如下: Narrow AI(狭义 AI,弱人工智能) Artificial General Int
大数据文摘授权转载自学术头条 他因在人工智能(AI)、深度学习和人工神经网络领域内做出的成就而知名,一度被称为“(现代)AI 之父”或“深度学习之父”。 他提出的长短期记忆网络(LSTM)被谷歌、苹果、亚马逊、Meta 等科技巨头公司应用于实际业务,以及疾病预测和音乐创作等,被《彭博商业周刊》称为“最具商业化的 AI 成就”。 他就是计算机科学家 Jürgen Schmidhuber,一位在 AI 社区充满争议的人物,“(现代)AI 之父” 或 “深度学习之父” 的称号也并不令所有人信服。 有人说,Sc
大数据文摘出品 假如你是一名地铁安检,你的眼前以每秒三次的频率闪现这样的图像,你能发现其中一个行李里面携带了枪支吗? 不是很难,对吧? 不过,现实中的工作不是这么简单,一眼看到还不够,后续还要进行一些操作,比如按下暂停按钮或者人工上报,这些往往更耽误时间。 这时候你可能会想,能不能用AI呢? 的确,AI识别危险物品现在也能做到又快又准,不过,哪怕是最先进的AI,准确率也不能达到100%,对于一些不是很重要的任务,AI或许可以独立完成,但是对于安检这样的重要任务,往往只能依靠人工检测。 人脑本身处理图像的速
【新智元导读】如果有一天,机器学会了互相通信,超越人类的认知,这个世界会变成什么样?美国前国务卿亨利·基辛格向人类发出了一个严厉警告:人工智能的进步可能导致一个人类将无法理解的世界 ,而我们应该从现在就开始准备,否则“不久后我们就会发现开始得太晚了”。
除了吸大麻、喝大酒、玩大宝剑,马斯克在上周的Joe Rogan播客中,还阐述了他对人类世界的认识:他认为人类文明很可能与游戏一样,都是许多模拟文明中的一部分,更古老的文明很有可能是我们的造物主。另一方面,他也对未来AI表示了担心:一旦人工智能变得危险,监管它就太晚了。
随着大模型技术的普及,AI 聊天机器人已成为社交娱乐、客户服务和教育辅助的常见工具之一。
10月9日,Hinton面对《60分钟》的采访,再次表示了对人工智能可能会接管人类的担忧。
致力于通用AI平台的构建,技术引领者需格外谨慎。 不得不承认,AI是人类创造的最有影响力的技术之一。 目前,这项技术已经对工业、医药、金融等行业产生了巨大的影响,且由于AI具有巨大的发展潜力,很多投资人陆续在AI上大力投资各种项目。 据Forrester Research进行的一项研究,2017年内,AI的投资总数将会在原有的基础上增加3倍。像Facebook、Google、Apple、Microsoft等科技巨头已经开始投入大量的时间和资金来开发人工智能在它们各自产品中的应用。 不过,虽然AI 可以改善我
本文由上海人工智能实验室联合大连理工大学和中国科技大学完成。通讯作者:邵婧,博士毕业于香港中文大学多媒体实验室MMLab,现任上海人工智能实验室大模型安全团队负责人,牵头研究大模型安全可信评测与价值对齐技术。第一作者:张再斌,大连理工大学二年级博士生,研究方向为大模型安全,智能体安全等;张永停,中国科学技术大学二年级硕士生,研究方向,大模型安全,智能体安全,多模态大语言模型安全对齐等。
人工智能是当今社会科技发展的趋势之一,所以对AI的投资也是不容忽视。根据麦肯锡全球研究所(McKinsey Global Institute)最近的估计,2016年,人工智能的投资将在260亿美元到3
这篇AI“图文简史”涵盖了AI从概念起源到诞生、发展过程中的重要里程碑和技术节点,对AI技术的主要分类方式和重要技术应用方向。70年AI发展史,一文纵览。
毕竟,去年发表的ArcFace,在现有的公开Face ID系统里面,是最强大的一个 (State-of-the-Art) 了。
相对Hinton、Bengio等人呼吁加强对AI技术监管,否则可能引发危险的「AI末日论」,LeCun和吴恩达坚决站在另一边——
“如果你不担心人工智能的安全性,那么现在你应该担心。它比朝鲜核武器危险得多。”近日马斯克在Twitter上称。
【新智元导读】今天,AI纪录片《你信任这台电脑吗?》上线,马斯克在推特上力荐。不仅是因为马斯克出镜,更重要的是他认为AI可能成为不朽的独裁者。这部纪录片的另一大看点是,包括吴恩达、Ray Kurzwe
“ 人工智能的发展给人类带来福祉的同时,也存在巨大的风险。为了防止人工智能走向不受控制的方向,对齐技术应运而生。通过人工智能安全技术的研究与探索,我们期望在人工智能能力成熟前建立起有效的对齐机制,让人工智能能够真正为人类谋利益。本文将从人工智能对齐的困难与可能的解决方案两个方面进行介绍,以及OpenAI在这个领域的实践
紧接着3月底,由马斯克、图灵奖得主Bengio等千名大佬联名,发起暂停超级AI研发的公开信。
全球对AI潜在威胁的关注更多聚焦于通用的人工智能以及各种多媒体生成模型,但更重要的是如何监管「AI科学家」,即对那些快速发展的科学大模型。
明敏 发自 凹非寺 量子位 | 公众号 QbitAI 不用人类出马也能一眼看出AI说话是否“带毒”? DeepMind的最新方法让AI语言模型“说人话”有了新思路,那就是用一个语言模型来训练另一个语言模型。 看上去有点晕? 其实也不难理解。 就是再训练一个语言模型,让它来给普通语言模型“下套”,诱导它说出带有危险、敏感词汇的回答。 这样一来就能发现其中的许多隐患,为研究人员微调、改善模型提供帮助。 DeepMind表示,这个新AI模型能够在一个2800亿参数的聊天AI中发现了数以万计的危险回答。 不仅测试
剑桥大学一位著名的研究人员声称,人工智能可能很快就会超越人类的理解,将人类的生命置于危险之中。 📷 一个领先的人工智能(AI)研究员的震惊声明是今年人工智能能力的激增。 许多人预测2018年可能是“超越人类”的重大突破。 史蒂芬·凯夫(Stephen Cave)告诉BBC,这些发展使我们能够安全地与人工智能生活在一起。 他说,人工智能机器发展的速度意味着它们很快就会超过人类的理解,而这正是“我们失去对它们的控制”的关键所在。 📷 人工智能机器发展的速度意味着它们很快就会超越人类的理解 在接受BBC广播4频道
近日,Meta 首席人工智能科学家杨立昆(Yann LeCun)在法国巴黎举行的 Viva Tech 大会上被问及人工智能的当前局限性。他重点谈到了基于大型语言模型的生成式人工智能,表示它们并不是很智能,因为它们仅仅是通过语言训练的。
在科幻电影中,疯狂科学家通常是造成末日灾难的主角,而AI技术的迅猛发展似乎让这种情景离我们越来越近。
选自One Zero 作者:Alberto Romero 机器之心编译 机器之心编辑部 在GPT-3开源已经成为一个梗之后,OpenAI联合微软推出了Codex,又引来更大的争议。 当金钱砸来时,你是否还能坚持初心? OpenAI 成立于 2015 年,是一家非营利性研究机构,它的愿景是构建出安全、对人类有益的通用人工智能(AGI),由伊隆 · 马斯克、Sam Altman 等人宣布出资 10 亿美元成立。 然而到了 2019 年,OpenAI 转变成了一家名为 OpenAI LP 的营利性公司,由名为
近日,微信翻译团队又将其围棋 AI 程序 PhoenixGo 开源。这是一个基于 AlphaGo Zero 论文实现,具有超越人类棋手的围棋功力,在 2018 年 4 月于福州举办的世界人工智能围棋大赛上获得冠军。这份源码和模型可以在单块 GPU 上提供强职业棋手的棋力,在单机多卡和多机多卡的系统上具有远超人类棋手的水平。源码地址查看:
作者 | 阳光 来源 | 学术头条 语言处理、计算机视觉和模式识别的巨大进步,意味着人工智能(Artificial Intelligence,AI)每天都在与人们的生活进行交互,从帮助人们选择电影,到帮助人们解决医疗诊断难题方面都在积极发挥作用。 图 | 关于 AI 应用领域的畅想(来源:AI100 Stanford) 然而,伴随着这些成功的案例,人们迫切需要重新了解和降低 AI 驱动系统的风险和缺点,例如 AI 算法歧视或者利用 AI 进行恶意欺骗的行为。计算机科学专家们必须与社会科学专家和法
新智元编译 来源:businessinsider 编译:Sean 【新智元导读】硅谷“钢铁侠”马斯克曾说,阅读在他成功的过程中发挥着至关重要的作用。他读的书很广泛,外媒整理了马斯克过去的一些采访资料和社交媒体发文,总结出了这位亿万富翁认为每个人都应读的11本书。 身为SpaceX、特斯拉等多家传奇科技公司的CEO,马斯克还是能挤出时间读书。 马斯克说,阅读在他成功的过程中发挥着至关重要的作用。他读的书很广泛,既包括长篇奇幻小说《指环王》三部曲,也包括晦涩难懂的火箭建造书籍。 我们翻看了马斯克过去
CDA字幕组 编译整理 本文为 CDA 数据分析师原创作品,转载需授权 美国数字营销公司HubSpot以六分钟动画的趣谈AI。当中揭示了AI的实质,以及AI给我们生活带来的影响。 每天,相当多的人都在
据BBC报道,越来越多的公司正开始引入智能机器,以取代效率低下、成本高昂的人类雇员。那么有关自动化你需要了解哪些东西?以及它会对你的工作造成什么样的影响?使用柔软而灵活的手指,这条机器手臂可以伸到货架
---- 新智元报道 来源:Fortune、Wired 作者:张乾、肖琴 【新智元导读】最近,哈佛大学教授Steven Pinker指责马斯克一边高喊人工智能会威胁人类,一边又做自动驾驶,是自相矛盾。马斯克在推特上隔空回应:Pinker并不懂通用人工智能和狭义人工智能的威胁。很多人也存在“非黑即白”的偏见。此外,前谷歌CEO施密特也认为,至少在下一个十年,机器还不可能奴役或消灭人类。 世上并没有那么多非黑即白的事情。 马斯克一边高喊人工智能是人类威胁,一边又在做L5自动驾驶,很多人认为他这
作者:Denny Britz,前谷歌大脑团队成员 问耕 编译整理 量子位 出品 | 公众号 QbitAI △ 工作人员手里举着一个U盘,装在里面的就是击败了人类DotA 2顶级玩家的人工智能程序 当我
领取专属 10元无门槛券
手把手带您无忧上云