GAIR 今年夏天,雷锋网将在深圳举办一场盛况空前的“全球人工智能与机器人峰会”(简称CCF-GAIR)。大会现场,谷歌,DeepMind,Uber,微软等巨头的人工智能实验室负责人将莅临深圳,向我们零距离展示国外人工智能震撼人心、撬动地球的核心所在。在此之前雷锋网将网罗全国顶尖的人工智能和机器人专家和各大公司的首席科学家,同这些国际大拿同台交流。如果你不想错过这个机会,请用邮件直戳我心,lizongren@leiphone.com 英国物理学家史蒂芬•霍金认为,人工智能的潜在威胁绝不仅仅是像电影《终结者》
从《2001:太空漫游》到《黑客帝国》,电影和科幻作家一直都在提醒我们要警惕人工智能,因为它们随时都有可能背叛人类甚至毁灭人类。随着人类在人工智能领域不断取得突破,这种担忧正在越来越多地被人们提及。
霍金一直在警告人类,要谨慎对待人工智能。人工智能一旦发展起来,将会出现不可控制的局面,例如人工智能发展到一个临界点的时候,诞生了真正的智能潜伏者,一旦拥有足够的权限或者资源,将会控制这人类现有的科技。
人工智能一旦脱离束缚,就会以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代,这将给我们的经济带来极大的破坏。 ——霍金 近日,在日内瓦举办的联合国特定常规武器公
3月14日总是很“热闹”,这一天是白色情人节,而且这一天跟科技圈有一些特别的缘分。首先,3.14是圆周率节,然后,这一天我们要纪念两位人类科学史上的重量级大佬:
最近,韩国科学技术院大学(KAIST)因为与军工企业“韩华 Systems”合作研发自主武器,遭到来自全球20多个国家的50多名AI学者联名抵制,其中就包括南京大学计算机系主任、人工智能学院院长周志华教授。 昨天,周志华教授接受了新智元采访,他认为,KAIST的做法,其危险之处在于让机器自己去决定是否进行对人类的毁灭性打击,就像公开信中所说的:如果这样的武器开发出来,自主武器将导致战争的第三次革命,战争将比以往任何时候都更容易发生并且更残忍。 同时,周志华教授还认为,迄今为止主流人工智能领域的研究,都
2018 年 3 月 14 日,英国物理学家与宇宙学家史蒂芬·霍金(Stephen William Hawking)去世,享年 76 岁。 霍金于 1942 年 1 月 8 日出生于英国牛津,是现代最伟大的物理学家之一、20 世纪享有国际盛誉的伟人之一。 霍金生前曾任职剑桥大学理论宇宙学中心研究主任,在任期间做出很多重要贡献,其中包括他与罗杰·彭罗斯共同合作提出在广义相对论框架内的「彭罗斯–霍金奇性定理」,以及他关于黑洞会发射辐射的理论性预测(现称为霍金辐射)。 霍金生前亦有很多著作,撰写了多本阐述自己理论
【新智元导读】Nature日前发表社论,认为人工智能威胁论并非无稽之谈。社论指出,人工智能的发展有可能威胁隐私权和异议权,过于依赖人工智能将产生网络安全隐患,目前无人机等自主进攻武器尚存伦理问题,最重要的是机械取代人之后生产力提高的收益不一定能全社会共享,因此可能导致不平等现象加深。社论最后强调,技术发展应当与科学研究同步,这样技术才不会走偏道路。 原文标题:Anticipatingartificial intelligence 原文来源:Nature532, 413 (28 April 2016) do
大数据文摘作品,转载要求见文末 编译 | 宁云州、钱天培、杨捷 日前,在世界最大的人工智能会议之一的IJCAI 2017上,116名世界领先的机器人和人工智能公司的领导人联名发布了一封公开信,敦促联合国紧急处理可致命自动武器(通常称为“杀手机器人”),并禁止它们在国际上使用。 116位AI和机器人界大佬联名呼吁禁止“杀手机器人” 随着人工智能的发展,计算机开始在各个领域上渐渐超过人类,近些年更是在围棋甚至Dota2上也超越了人类,而作为AI特殊的应用领域之一,自动武器系统的危险性不言而喻,如果被别有用心之人
人工智能正在迅速融入各行各业,IEEE Spectrum 总结了 2021 年 10 篇最受读者欢迎的 AI 文章,按时间排名,其中部分文章来自 2021 年 10 月的 AI 特刊 The Great AI Reckoning 。
最近关于人工智能威胁的讨论越来越多,斯蒂芬·霍金、比尔·盖茨、伊隆·马斯克、史蒂夫·沃兹尼亚克等世界各地名人已经敲响了警钟,称人类可能会失去对人工智能技术的控制,因为人工智能技术创造的是具有自主思想的
来自加拿大和澳大利亚的机器人和人工智能领域的专家们呼吁政府对杀手机器人下达禁令,专家们反对自动化武器的使用,并且认为它们的研发和使用越过了道德底线。 在新南威尔士大学Toby Walsh的组织下,澳大
自从20年前深蓝(Deep Blue)在国际象棋中击败卡斯帕罗夫(Garry Kasparov),该事件就被人们誉为机器智能最权威的证明。谷歌的AlphaGo已经在围棋比赛中以四胜一负(译者注:原文是三场中获胜两局)赢得了韩国棋手李世石,更表明了这些年来人工智能的迅猛进步。机器终会比人类更聪明的预言即将到来,但我们似乎并没有真正理解这个具有划时代意义的事件的影响。
选文:凉亮 翻译:丁一,孙强,王婧,肥毛毛虫,Mona,焦剑,汪霞 摘自:http://gizmodo.com 自从20年前深蓝(Deep Blue)在国际象棋中击败卡斯帕罗夫(Garry Kasparov),该事件就被人们誉为机器智能最权威的证明。谷歌的AlphaGo已经在围棋比赛中以四胜一负(译者注:原文是三场中获胜两局)赢得了韩国棋手李世石,更表明了这些年来人工智能的迅猛进步。机器终会比人类更聪明的预言即将到来,但我们似乎并没有真正理解这个具有划时代意义的事件的影响。 事实上,我们执着于对人工智能的
大多数人会对智能机器人可能背叛人类而心怀恐惧。但谁又能保护它们,防止它们自相残杀呢?一位学者问道。 在不那么遥远的未来,人工智能(大概是以机器人的形式存在)很有可能将具备自己的意识。无论何种
马斯克和霍金等科技界名人纷纷表示,要警惕人工智能失控。图片来源:CT。 人们一定还没忘记,今年谷歌DeepMind的人工智能软件AlphaGo打败了世界围棋大师,让世人看到了AI的厉害,也伤了人类的“自尊心”。此后,马斯克、霍金等科技界名人纷纷表示我们需要警惕AI,当人工智能超过了人类智能的时候,也许人类会失去对AI的控制。不久,微软发布的Tay机器人不到一天就被黑化,再次引发舆论讨论——万一AI失去控制,轻则调皮捣蛋,重则造成无法挽回的后果。马斯克等人为了防止AI技术失控,还成立了非盈利组织OpenA
I.人们对于人工智能这个热点话题仍说法各异。 像史蒂芬·霍金、伊隆·马斯克、比尔·盖茨这样的专家,最近越发看重它的潜力和威胁。在读完尼克·博斯特伦《超级人工智能》一书后,马斯克大声质问,人工智能是否是”我们现在最大的威胁”。 我们对于人工智能流行的说法被人类伦理所扭曲了。人们对于人工智能的分歧不仅仅体现在它的威胁上,对于强人工智能是否会出现也有不同的看法。一些人认为具备人类相当水平的“强人工智能”(hard A.I.)永远不可能存在,但也有人认为这种趋势将势不可挡。但在很多情况下,这些争论可能偏离了真正的含
李根 发自 凹非寺 量子位 报道 | 公众号 QbitAI 十天前,硅谷钢铁侠、特斯拉CEO伊隆·马斯克在几十位美国州长面前,声称AI是对人类存在的最大威胁,并且呼吁加强对AI的监管。 虽然马斯克鼓吹这一论调已经多年,但这次整个AI界似乎都站到了他的对面,对他的批评声不绝于耳,直到Facebook创始人扎克伯格出手,事件到达了高潮。 “我认为那些对AI持否定态度或者鼓吹末日论的人,其实根本没理解什么是AI。他们的看法太消极了,甚至有些不负责任”,扎克伯格谈到马斯克时如是说。他还补充道“未来5-10年内,AI
现在是时候讨论A.I.的道德问题了。虽然机器学习不是一项新的技术发展,但现在是人工智能发展的关键时刻。要面对的道德问题有很多,包括以下提到的十一种。
1 新智元编译1 来源:Nature 译者:刘小芹 是什么让我们对人工智能(AI)感到忧心?白宫上周发布的报告是对智能机器可能带来的威胁的最新报告。Nature上周发表的评论文章提出,科学和政治关注极端的未来风险可能会分散我们对已经存在的问题的注意力。 这种关注的部分原因来自对AI可能发展出自我意识,从而带来有关人类存续的严重威胁的过度关注。最近的一些新闻显示,受人尊敬的思想家如比尔·盖茨和斯蒂芬·霍金都在关注机器的自我意识。某种程度上,机器的某个软件将“觉醒”,机器自身的欲求将优先于人类的指示,从而威胁
当谈到人工智能(AI)的潜力和潜在风险,以及无人类干预的机器学习和推理过程时,目前尚存在许多不同的观点。 只有时间会告诉我们,这些语录中哪一条是最接近未来的真实情况的。在我们尚未到达目的地之前,想一想哪家的预言最可能成为现实是一件很有趣的事。 “全面化人工智能可能意味着人类的终结...”机器可以自行启动,并且自动对自身进行重新设计,速率也会越来越快。受到漫长的生物进化历程的限制,人类无法与之竞争,终将被取代。——史蒂芬·霍金对BBC如是说。 “我设想在未来,我们可能就相当于机器人的宠物狗狗,到那时我也
英媒称, 如果好莱坞给科学家上过什么课的话,那就是一旦机器开始反抗它们的创造者会出现什么情况。英国《每日邮报》网站报道称,尽管如此,专家却已开始教授机器人如何拒绝执行人类的命令。他们给一对小型人形机器人谢弗和登普斯特编制程序,一旦人类的指令使它们的安全受到威胁,它们就不服从指令。 最后造出的机器人与其说像电影《终结者》中的那些杀人机器,倒不如说更像威尔·史密斯主演的电影《机械公敌》中那个满怀歉意的机器人叛逆者桑尼。人工智能使桑尼克服了体内的程序,拒绝执行人类的指令。 马萨诸塞州塔夫茨大学的工程师戈登·布里格
作者 | Tina 埃隆·马斯克 (Elon Musk) 否认了他最著名的作品之一。 特斯拉、SpaceX 和 Twitter 的首席执行官以热爱工作每天睡觉不超过 6 小时而闻名,他脑子里想着几件事,其中一件事关 OpenAI 的发展,太平洋时间凌晨 1 点 36 分,他发表推文指责 OpenAI 违背初心:被微软控制,只顾赚钱。 作为联合创始人之一,马斯克对 OpenAI 的现状非常不满:“OpenAI 最初是作为一家开源(这就是为什么我把它命名为‘Open’AI)的非营利性公司而创建的,为了抗衡
除了表示担忧,霍金这次也带来了如何应对的建议。 自人工智能技术受到关注以来,关于“人工智能威胁论”的争论就一直没有停歇过,其中,尤以世界著名的物理学家霍金以及特斯拉CEO马斯克最为活跃,数次发表关于“
AiTechYun 编辑:Yining 14日,著名物理学家史蒂芬·霍金去世,享年76岁。除了物理领域之外,一直致力于探索宇宙奥秘的霍金,曾经对人工智能发表过哪些言论呢? 史蒂芬·霍金 早在2014年
JONATHAN MERRITT 朱思颖、蒋思源、吴攀|机器之心编译 Are you there, God? It's me, robot. 在他相对较短的任期内,教皇Francis
【新智元导读】2018年,一本比《未来简史》更具有划时代意义的著作《生命3.0》出版。作者MIT物理学终身教授迈克斯·泰格马克认为智能终将摆脱自然演化的束缚,成为自己命运的主人。书中描绘了12种人与人工智能的未来,定将给中国产业界带来极大启发,让更多中国人知道自己的命运,知道这个世界未来的命运。
“如果你不担心人工智能的安全性,那么现在你应该担心。它比朝鲜核武器危险得多。”近日马斯克在Twitter上称。
今日,著名物理学家史蒂芬·霍金去世,享年76岁。 NASA发布悼文表示:悼念知名物理学家及科学大使史蒂芬·霍金。他的理论解锁了一个充满可能性的宇宙。我们,以及全世界正在其中探索。就像2014年你对国际空间站宇航员的祝语:愿你能像微重力中的超人一样继续飞翔。 霍金生前最伟大的两项学术成就 霍金出生的那天,正是伽利略逝世的300年祭日。霍金去世的今天,则是爱因斯坦的139年诞辰。他的大半生被困在轮椅上,他却说,即便被关在果壳中,他也是无限空间之王。 今天霍金去世了。他这一生的发现,永远改变了人类历史
在伦敦举行的2015年Zeitgeist大会上,著名科学家史蒂芬·霍金(Stephen Hawking)再次发出警告——未来100年内,人工智能将比人类更为聪明,机器人将控制人类。 霍金宣称,现在不
近日在伦敦举行的2015年Zeitgeist大会上,著名科学家史蒂芬·霍金(Stephen Hawking)再次发出警告——未来100年内,人工智能将比人类更为聪明,机器人将控制人类。 霍金宣称,现在
5月3日消息,著名物理学家史蒂芬霍金(Steven Hawking)在讨论约翰尼德普(Johnny Depp)主演的新片《超验骇客》时称,人工智能或许不但是人类历史上最大的事件,而且还有可能是最后的事件。他的意思是:人工智能可能会导致人类的灭亡。 当你为人工智能技术的飞速发展而欢呼雀跃的时候,你是否想过这可能并不是一件好事?在观看了德普主演的新片《超验骇客》后,霍金在为《独立》杂志撰写的一篇文章中明确地表达了他对这个问题的担忧。 霍金担忧的对象不仅仅是未来的人工智能技术,甚至还包括现在的一些公司比如谷歌和
1.新智能机器会威胁人类的生存吗? 2.你认为新智能机器会取代我们的工作吗? 如今臭名昭著的“人工智能奇点”之说在网上广泛流传,许多人都对此深信不疑。一些人纷纷提出警告说,超级智能将会威胁人类的生存。 包括霍金、维尔切克、特各马克等许多著名的科学家也在英国《独立报》上共同签名,发出了对人工智能崛起的警告。 谷歌人工智能研究所的负责人库兹韦尔甚至预言,“奇点”将会在2030年发生。 那么,这些关于人工智能奇点的讨论是从何时开始的呢?它又有什么科学根据呢? 本书作者告诉我们,答案不是来自科学,而是来自科幻。 文
今年 1 月,谷歌 CEO Sundar Pichai 曾表示人工智能的影响会比电力「更深刻」。他遵循谷歌领导者的悠久传统,称其技术是变革性且美妙的。
当地时间3月14日,英国科学巨匠、著名物理学家史蒂芬·霍金去世,享年76岁。 霍金被誉为英国当代最著名物理与宇宙学家(图源:VCG) 综合媒体3月14日报道,公开资料显示,霍金(Stephen Wi
导读:一些人类害怕人造人有一天会毁灭人类,这种末世焦虑是一种莫名的害怕,这种害怕比害怕的对象更令人害怕,因此没有缓解的可能。就连他们害怕的人造人也是他们的某种自我折射。 作者:徐贲,美国马萨诸塞州大学文学博士,加州圣玛丽学院英语系教授,复旦大学社会科学高等研究院兼职教授。 人工智能对人类未来的威胁已经成为即将过去的2017年里最引人关注的问题之一。不久前,一篇题为《今天,从美国惊爆凶讯:终结者,终于要来了!》的报道说,IBM宣布成功研制出了量子计算机原型机,“一台台式机电脑大小的量子计算机,或能达到今天
人工智能对人类未来的威胁已经成为即将过去的2017年里最引人关注的问题之一。不久前,一篇题为《今天,从美国惊爆凶讯:终结者,终于要来了!》的报道说,IBM宣布成功研制出了量子计算机原型机,“一台台式机电脑大小的量子计算机,或能达到今天最先进的中国天河一号超级计算机的计算能力”。 报道预言,“很可能,在不远的将来,人类在量子计算机+人工智能面前,就可能像蚂蚁面对人类一样无力和脆弱”。报道甚至联想到,“这也就是为什么近日,国家突然宣布:2030年一定要抢占人工智能全球制高点,还要在中小学设置人工智能课程!” 为
据 BBC 等多家外媒报道,知名物理学家史蒂芬·霍金已经去世,享年 76 岁。 霍金的家人在周三凌晨发表声明,证实他已在剑桥的家中死亡。霍金的孩子 Lucy , Robert 和Tim 在一份声明中说:“我们亲爱的父亲今天去世了!我们感到深深的悲痛!” 曾有人问霍金,他的身体状况对科学研究是帮助还是限制,他对死亡的恐惧又是什么。75 岁的霍金回答说,他很幸运能够从事理论物理学研究工作,这是少数几个不会受限于身体状况的领域之一。过去这么多年,他一直都在英年早逝的预期中生活着。他不怕死,但也还不急着死,在死
今天的演讲,霍金说人脑和计算机在智能上并无差别,他说,人类可能终将被这样的智能所终结。 昨天,KK 却提前跳出来说,霍金的逻辑从根本上就错了。今日同台竟演的李开复,对于霍金的观点,也并不苟同。 在这场争论战中,到底谁说的更有道理呢? 霍金又来谈人工智能了。 他还是担心人类文明会被人工智能所终结,毕竟,那是一个足以等同或超越人类的新事物。 因为强人工智能的崛起,要么是人类历史上最好的事情,要么就是最糟的事情。 而眼下是好是坏,霍金坦言他也不能确定。但潮水的方向无法改变,他从头到尾都在呼吁: 我们的人工
作者|任杰,邱猛,Aileen “一个好的未来是什么样子?” 特斯拉首席执行官伊隆·马斯克(Elon Musk)在加利福尼亚州阿西洛马的Beneficial AI会议上发言。 “我们正走向超级智能,亦或是人类文明的结束。” 全球2000多人,包括844名人工智能和机器人领域的专家联合签署了23条AI发展原则,呼吁全世界的人工智能领域在发展AI的同时严格遵守这些原则,共同保障人类未来的利益和安全。 宇宙学家斯蒂芬·霍金和特斯拉首席执行官埃伦·马斯克本周公开大力支持了一系列原则,用以确保拥有自主思考能力的机器保
GMIC北京2017大会于今日在国家会议中心正式拉开帷幕,大会为期五天,将于5月1日闭幕。本届大会围绕“天·工·开·悟”的主题,围绕时下最热门的人工智能、无人驾驶、大数据、共享经济、科技金融、创新创业
GMIC 2017 北京大会于4月27日在国家会议中心拉开帷幕。大会以“天·工·开·悟”为主题,上午领袖论坛首场Keynote由霍金带来。霍金先生通过视频的方式给现场观众做了题为《让人工智能造福人类及其赖以生存的家园》的演讲,他对未来人工智能过度发展可能带来的负面影响表达了担忧,同时也和与会者探讨了关于未来是否要为人工智能赋予“人格”以期限定其权利责任问题。视频最后,霍金回答了李开复和傅盛等业内领袖与网友的问题。
作者 | 费棋 一群类似杀人蜂的小型无人机冲入课堂,以人脸识别技术瞬间定位所有学生,将他们全部杀死。 这是去年 11 月伯克利大学教授 Stuart Russell 在联合国特定常规武器公约会议上放出的一段虚拟视频。尽管这段视频和其中的杀人机器人并不真实,但其中的科技目前已经存在。试想如果这种技术落入到恐怖分子手里,后果将难以设想。 机器人的发展如果趋向恶的一面,那就像是潘多拉魔盒,异常凶险。 近日,超过 50 位人工智能领域的专家联名抵制韩国科学技术高级研究院 KAIST 开发“杀人机器人”。这是
“我在这个星球上过着不平凡的生活,同时用我的头脑和物理定律穿越宇宙。我去过银河系最远的地方,进入了黑洞,回到了时间的起源。在地球上,我经历过高潮和低谷,动荡和和平,成功和痛苦。我富有过,贫穷过,我健全过,残疾过。我受到过赞扬也受到过批评,但我从未被忽视。”
问耕 发自 凹非寺 量子位 报道 | 公众号 QbitAI 霍金、李开复、张亚勤等一众人工智能产学研领域的旗帜性人物,聚在一起会碰撞出怎样的火花?今天有了一个答案。 作为在前沿技术科普领域有着重大影响
GMIC 2017 北京大会于4月27日在国家会议中心拉开帷幕。大会以“天·工·开·悟”为主题,上午领袖论坛首场Keynote由霍金带来。霍金先生通过视频的方式对现场观众做了题为《让人工智能造福人类及其赖以生存的家园》的演讲,他对未来人工智能过度发展可能带来的负面影响表达了担忧,同时也和与会者探讨了关于未来是否要为人工智能赋予“人格”以期限定其权利责任问题。视频最后,霍金回答了李开复和傅盛等业内领袖与网友的问题。 早先,霍金老爷子也难得地在微博发文,为自己的Keynote预热。 演讲中霍金被问及如果
GMIC 2017 北京大会于4月27日在国家会议中心拉开帷幕。大会以“天·工·开·悟”为主题,上午领袖论坛首场Keynote由霍金带来。 霍金先生通过视频的方式对现场观众做了题为《让人工智能造福人类
过去一周,国际、国内的大数据相关公司都有哪些值得关注的新闻?数据行业都有哪些新观点和新鲜事?DT君为你盘点解读。
领取专属 10元无门槛券
手把手带您无忧上云