AiTechYun 编辑:xiaoshan 特斯拉(Tesla)和SpaceX的老板埃隆·马斯克(Elon Musk)对人工智能的危险警告已经加倍。 埃隆·马斯克在SXSW音乐节上发言。照片来自Chr
作者: Matthew U. Scherer 译者: 曹建峰 腾讯研究院法律研究中心研究员 李金磊 腾讯研究院法律研究中心助理研究员 来源: Harvard journal of law and technology 引言 智能机器时代,人工智能正在全方位侵入我们的生活。人工智能(artificial intelligence,简称AI)正在替代那些以前只能由具有专业知识或者获得政府颁发的许可证的人员才能完成的任务。美国一些州以
关键字全网搜索最新排名 【机器学习算法】:排名第一 【机器学习】:排名第二 【Python】:排名第三 【算法】:排名第四 很多科幻电影里都讲过这样的故事:人类制造出来的机器人,因为有了自己的意识,反
大数据文摘出品 谷歌前首席执行官埃里克·施密特(Eric Schmidt)在一次访谈中,将人工智能比作核武器,并呼吁建立一个类似的相互确保毁灭的威慑机制,以防止世界上最强大的国家因为AI相互毁灭。 相互保证毁灭(Mutually Assured Destruction,简称M.A.D.机制,亦称共同毁灭原则)是一种“俱皆毁灭”性质的思想。对立的两方中如果有一方全面使用则两方都会被毁灭,被称为“恐怖平衡”。 施密特将AI与核武器相对比,表示中美未来可能要缔结类似于禁止“核试验”相似的条约,以防止AI毁灭世界
除了吸大麻、喝大酒、玩大宝剑,马斯克在上周的Joe Rogan播客中,还阐述了他对人类世界的认识:他认为人类文明很可能与游戏一样,都是许多模拟文明中的一部分,更古老的文明很有可能是我们的造物主。另一方面,他也对未来AI表示了担心:一旦人工智能变得危险,监管它就太晚了。
摘自:爱范儿 网站:http://www.ifanr.com/ 人工智能是个艰深而充满争议的话题,一方面,科技大佬们纷纷注资抢占这块风水宝地,另一方面,人工智能可能带来威胁。 Elon Musk 就说过:“我非常喜欢关注人工智能,但是我觉得这个领域可能导致一个危险的结果。”而此前,Elon Musk 在自己的 Space X 和 Tesla 等项目之外,还投资了人工智能企业Vicarious。该公司创造“人类智慧级别的视觉、语言和机械操控”——一项前沿的人工智能技术。原理则是复制人类的大脑皮层信息,获取大脑
对于人工智能这个概念,想必很多人都是从科幻小说或电影里获得的。的确,人工智能目前还没有彻底融入到我们的现实生活之中,但是如果你单纯从科幻电影和小说里了解机器人和人工智能,可能会有很大的误解,因为里面把它们描写的都非常可怕。 在此,不妨听听业界一些专家的见解,或许能帮你解开这一神秘领域的谜团: 斯图尔特·罗素(Stuart Russell,)表示,没人在开发有意识的人工智能。 (加州大学伯克利分校计算机科学家) 人们对人工智能概念存在一定误解,他们普遍觉得人工智能的方向就是一种有意识的机器,大家好像觉得,如
紧接着3月底,由马斯克、图灵奖得主Bengio等千名大佬联名,发起暂停超级AI研发的公开信。
人工智能的腾空出世,让许多人心存疑惑,这究竟对人类来说,是机遇,是挑战,还是某种未知的危险?成为了一个饱受争议的问题。人工智能作为一门交叉科学,涉及到社会学、信息学、控制学、仿生学等众多领域,既是生命科学的精髓,更是信息科学的核心。在新一代信息技术接力式创新的驱动下,万物互联和智能化趋势越发明显,也更有力的证明人工智能的机遇远远大于危险。
人工智能,英文是Artificial Intelligence,简称为AI。根据定义,它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。
大数据文摘作品,转载要求见文末 编译 | 宁云州、钱天培、杨捷 日前,在世界最大的人工智能会议之一的IJCAI 2017上,116名世界领先的机器人和人工智能公司的领导人联名发布了一封公开信,敦促联合国紧急处理可致命自动武器(通常称为“杀手机器人”),并禁止它们在国际上使用。 116位AI和机器人界大佬联名呼吁禁止“杀手机器人” 随着人工智能的发展,计算机开始在各个领域上渐渐超过人类,近些年更是在围棋甚至Dota2上也超越了人类,而作为AI特殊的应用领域之一,自动武器系统的危险性不言而喻,如果被别有用心之人
---- 新智元报道 编辑:编辑部 【新智元导读】入职谷歌10年后,人工智能教父Hinton选择离职。对于造就了如今AI技术繁荣的神经网络,Hinton表示:这是我毕生的后悔。 一觉醒来,整个科技圈惊掉了下巴!!! 深度学习泰斗、神经网络之父Geoffrey Hinton突然宣布离职谷歌。 为了能够自由谈论人工智能风险,而不考虑这对谷歌的影响。 纽约时报的报道中,Hinton直接警示世人:注意,前方有危险,前方有危险,前方有危险! 而正是对人工智能风险深深地担忧,让这位深度学习巨佬直言:「我对
剑桥大学一位著名的研究人员声称,人工智能可能很快就会超越人类的理解,将人类的生命置于危险之中。 📷 一个领先的人工智能(AI)研究员的震惊声明是今年人工智能能力的激增。 许多人预测2018年可能是“超越人类”的重大突破。 史蒂芬·凯夫(Stephen Cave)告诉BBC,这些发展使我们能够安全地与人工智能生活在一起。 他说,人工智能机器发展的速度意味着它们很快就会超过人类的理解,而这正是“我们失去对它们的控制”的关键所在。 📷 人工智能机器发展的速度意味着它们很快就会超越人类的理解 在接受BBC广播4频道
5月初,白宫与谷歌、微软、OpenAI、Anthropic等AI公司的CEO们开了个会,针对AI生成技术的爆发,讨论技术背后隐藏的风险、如何负责任地开发人工智能系统,以及制定有效的监管措施。
中兴智能视觉大数据报道:《美国科学院院刊》刊发的一份研究报告认为,在过去几十年里,人们的智商(IQ)测试分数一直在缓慢下降。瑞典研究人员对20世纪70年代至2009年招募进入挪威国家服务的青年男子进行IQ测试研究和分析,共获得73万个测试结果。对相关数据进行分析后发现,参与者的IQ分值每一代都会下降7分。
人工智能是当今社会科技发展的趋势之一,所以对AI的投资也是不容忽视。根据麦肯锡全球研究所(McKinsey Global Institute)最近的估计,2016年,人工智能的投资将在260亿美元到3
10月9日,Hinton面对《60分钟》的采访,再次表示了对人工智能可能会接管人类的担忧。
近年来,人工智能的发展速度十分惊人,在安防监控、工业制造、农业、教育、金融、医疗等领域中的应用越来越广泛,并且未来几年也将继续保持高速的发展趋势。通过人工智能技术提高自动化程度、减少人工干预、提高监管效率,已经成为当前的行业发展方向。今天来给大家盘点一下当前人工智能发展趋势下的一些常见AI算法以及应用场景。
有不少科学家与媒体上的评论文章,都对机器人与人工智能(artificial intelligence,AI)可能带来的危险提出过警告;这类对于人工智能以及所衍生的智能机器(intelligent machines,IM)应用──特别是在军事领域──的忧虑是可以理解的,但如果说智能机器实际上是人类从原始单细胞生物不断演化的过程中,出现的一个新分支呢? 若以上述的观点来看人工智能与智能机器,也许它们可能带来的危险并非是电影或科幻小说所描述的、将造成人类灭绝的灾难,而是一种会造成同样的人类灭绝结果、 但无法控
人工神经网络和深度学习(一种受大脑启发的机器学习方法)的先驱。2018年,本吉奥与Meta首席人工智能科学家杨立昆(Yann LeCun)、谷歌前研究员杰弗里·辛顿(Geoffrey Hinton),因“概念和工程上的突破,让深度神经网络成为计算的关键组成部分”,共同摘得计算机领域的诺贝尔奖--图灵奖。如今,上述三位计算机科学家也被称为“人工智能教父”。
---- 新智元报道 编辑:编辑部 【新智元导读】随着ChatGPT大火,多位AI界巨佬发出预警:有朝一日,它可能真的会消灭人类。 最近,ChatGPT的大火,让人看到第四次科技革命大门开启的迹象,但也有很多人开始担心,AI是否有消灭人类的风险。 不是夸张,最近多位大佬,已经表达了这样的担忧。 ChatGPT之父Sam Altman、人工智能教父Geoffrey Hinton、比尔盖茨、纽约大学教授Gary Marcus最近纷纷提醒我们:别太大意,AI真的可能会消灭人类。 而Meta首席AI科学
【新智元导读】如果有一天,机器学会了互相通信,超越人类的认知,这个世界会变成什么样?美国前国务卿亨利·基辛格向人类发出了一个严厉警告:人工智能的进步可能导致一个人类将无法理解的世界 ,而我们应该从现在就开始准备,否则“不久后我们就会发现开始得太晚了”。
△ 伊隆·马斯克,特斯拉及OpenAI联合创始人,在SpaceX猎鹰9号火箭部件内部 2010年摄于佛罗里达州 卡纳维拉尔角 王新民 允中 编译整理 量子位 出品 | 公众号:QbitAI 《华尔街日报》最近有篇文章说,硅谷钢铁侠伊隆·马斯克又创办了一家公司:研究脑机接口技术的Neuralink。 就是你们熟悉的那个马斯克,他的名字后边,可以写上一长串的公司:移动支付公司PayPal、电动汽车厂商特斯拉、火箭公司SpaceX、太阳能公司SolarCity、非营利人工智能组织OpenAI、超级高铁Hype
---- 新智元报道 来源:Fortune、Wired 作者:张乾、肖琴 【新智元导读】最近,哈佛大学教授Steven Pinker指责马斯克一边高喊人工智能会威胁人类,一边又做自动驾驶,是自相矛盾。马斯克在推特上隔空回应:Pinker并不懂通用人工智能和狭义人工智能的威胁。很多人也存在“非黑即白”的偏见。此外,前谷歌CEO施密特也认为,至少在下一个十年,机器还不可能奴役或消灭人类。 世上并没有那么多非黑即白的事情。 马斯克一边高喊人工智能是人类威胁,一边又在做L5自动驾驶,很多人认为他这
---- 新智元报道 编辑:Britta 【新智元导读】Anthropic对于人工智能发展的安全性研究以及推论表明,人工智能系统的计算量将呈指数型增长,预计未来5年训练AI模型的计算量将增加1000倍。 自从发现缩放定律以来,人们认为人工智能的发展会像坐火箭一样迅速。 2019年的时候,多模态、逻辑推理、学习速度、跨任务转移学习和长期记忆还是会有减缓或停止人工智能进展的 「墙」。在此后的几年里,多模态和逻辑推理的「墙」都已经倒下了。 鉴于此,大多数人已经越来越相信,人工智能的快速进展将继续下去,而
---- 新智元报道 编辑:桃子 Aeneas 【新智元导读】眼看AI的进化速度越来越快,白宫终于出手了。拜登会见了Sam Altman、劈柴、纳德拉这些顶级科技公司的CEO,紧急应对AI引发的巨大担忧。 美国终于出手了! 当地时间周四,拜登会见了顶级AI公司的CEO们,告诉他们:你们有道德义务,保证AI产品的安全。 Sam Altman、谷歌劈柴、微软纳德拉、Anthropic的Dario Amodei参加了这场不同寻常的会议。 拜登开场非常直白,「你们正在做的事不仅有巨大的影响力,还将带来巨
工作在一线的警察正在对剑桥大学犯罪学家研发的人工智能系统进行试验,以利用过去的五年犯罪史统计指导警方的工作。
国际著名信息技术问答网站Stack Overflow针对10万多名开发人员开展了一箱调查,发现DevOps(开发与运营)方法论和人工智能是当前薪水与最受关注的两个行业。
文章主要讲述了剑桥大学一位研究人员声称人工智能很快就会超越人类的理解,并将人类的生命置于危险之中,因为他们没有进化的枷锁。人工智能的能力将在今年激增,许多人预测人工智能将会有重大突破。然而,也有人警告说,我们需要非常小心使用这些功能非常强大的机器,因为它们可能会超越人类的理解,带来危险。量子计算的突破是AI开发的一大步,为机器提供了一种“变得比我们聪明”的方法。研究人员警告说,我们需要认识到我们在创造人工智能的错误,直到为时已晚。
原标题:与AI赛跑?麻省理工发布AI指数 称人类常常“错估”人工智能 一份新的报告试图具体衡量人工智能混乱的进展。 人工智能到底有多聪明?进展有多快? 这些问题让政治家、经济学家和人工智能研究人员夜不
“如果你不担心人工智能的安全性,那么现在你应该担心。它比朝鲜核武器危险得多。”近日马斯克在Twitter上称。
近日,Meta 首席人工智能科学家杨立昆(Yann LeCun)在法国巴黎举行的 Viva Tech 大会上被问及人工智能的当前局限性。他重点谈到了基于大型语言模型的生成式人工智能,表示它们并不是很智能,因为它们仅仅是通过语言训练的。
这是一篇人工智能科普贴,听大佬讲人工智能的一点儿事儿。 人工智能是当今特别热门的领域,那它的现状和未来需要解决的问题以及能够解决的问题是什么呢?“得到”订阅专栏《硅谷来信》的主理人吴军,在美国拜访了世界著名人工智能专家迈克尔·乔丹(他和篮球巨星乔丹同名同姓)。乔丹是加州大学伯克利分校的教授,在人工智能领域名气非常大。今天我们就跟随这两位大佬,一起来看看什么是人工智能。 人工智能是什么? 首先,乔丹教授谈了自己对人工智能发展的看法。 人工智能之一 乔丹教授觉得,人工智能是一种智能的放大。他认为,今天所谓的
火遍全网的 chatGPT,https://chat.openai.com/chat,OpenAI 基于强化学习开发的一款聊天机器人,能够自动生成代码以及绘画、回答一系列问题、承认自己的错误、质疑不正确的假设,甚至拒绝不合理的要求,且支持中文。马斯克直言:“ChatGPT非常好,我们离强大到危险的AI不远了”
数据猿导读 100多年前的工业革命带来了大量的自动化,也使得许多工人丢掉工作,而如今由于人工智能的到来,历史即将重演。在由数据猿、中欧商学院、腾讯直播共同举办的《中欧微论坛|数据猿·超声波》活动上,T
10月31日消息,据美国商务部官网信息,美国总体拜登于当地时间10月30日签署了一项行政命令 (EO),以建设美国评估和减轻人工智能 (AI) 系统风险的能力,以确保安全、保障和信任,同时促进创新、有竞争力的人工智能生态系统,支持工人并保护消费者。美国商务部将在实施行政命令方面发挥关键作用,将复杂的标准和评估能力与报告要求和自愿措施的强有力结合结合起来。
---- 新智元报道 编辑:拉燕 【新智元导读】谷歌前首席执行官Schmidt认为,AI就像核武器一样。你同意这个说法吗? 把AI比作核武器,你觉得合理吗? 谷歌前首席执行官Eric Schmidt将人工智能比作核武器,并呼吁建立一个相互保证的威慑制度。 类似于核武器的那种。 人工智能和核武器一样危险吗? 7月22日,Schmidt在阿斯彭安全论坛「关于国家安全和人工智能」的小组讨论中,谈到了人工智能的危险性。 在回答有关科技界道德价值的问题时,Schmidt表示,早期他自己在谷歌公司时,也
如今几乎各种技术都与云计算相关联,这不足为奇,机器人技术也是如此。这种创新技术和复杂技术的最大受益者似乎是制造业。到今年年底,机器人和机器人相关服务的全球市场规模将达到约135亿美元。相比之下,2015年机器人技术市场规模仅为71亿美元。
---- 新智元报道 编辑:LRS 【新智元导读】虽然ChatGPT写的论文错误太多,但掠夺性期刊应该会接收。(错误尝试!!) ChatGPT以其强大的文本创作能力,直接问鼎地表最强问答模型。 但强大的AI也会带来一些负面影响,比如在问答社区一本正经地写出错误答案,帮助学生写论文等。 最近arXiv上的一篇论文引发了业界的关注,来自西班牙圣地亚哥-德孔波斯特拉大学的研究人员在文中以「人工智能在药物发现中的挑战、机遇和策略」,这篇论文的特别之处在于作者使用ChatGPT辅助论文写作。 论文链接:h
数据猿报道,俄罗斯总统弗拉基米尔·普京早在2017年时就宣称,领导人工智能发展的国家将“成为世界的统治者”。这种观点显然在全球全面铺开,因为截至目前,已经有十几个国家宣布了本国的人工智能计划。2017年,中国发布《新一代人工智能发展规划》,制订了“到2030年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心,智能经济、智能社会取得明显成效,为跻身创新型国家前列和经济强国奠定重要基础”的目标。2019年早些时候,美国白宫发布了《美国人工智能计划》,美国国防部推出了人工智能战略。
在人工智能可以比人类做得更好的清单上,现在可以加上“诊断出危险的肺部疾病”这一事项了。斯坦福大学的研究人员在arXiv发表了一篇新的论文,解释了他们开发的卷积神经网络CheXNet是如何做到这一壮举的
比如图灵奖三巨头 Geoffrey Hinton、Yoshua Bengio、Yann LeCun 就出现了两种观点。Hinton、Bengio 为一队,他们强烈呼吁加强对 AI 的监管,否则可能引发「AI 灭绝人类」的风险。LeCun 与他们的观点并不相同,他认为 AI 强监管必将带来巨头垄断,结果是只有少数公司控制 AI 的研发。
这是一篇「人机协作」的文章, 初稿由darksee.ai「智能写手」生成, darksee.ai阅读了全网数据。 欢迎在MixLab讨论相关内容、技术实现, MixLab是一所面向未来的实验室 01 人工智能与知识产权 人工智能可以直接爬取各个品牌的数据,用图像识别比对明星照片,轻轻松松就能找到谁用了明星的照片。 这样一来,不仅举证的速度会提高,或许还能识别出很多人为难以发掘的相似点。 人类的话,即使看过这两张图片,也很难明显的感觉到两幅图片有什么相似,可当把两张图片重叠时,人工智能就能发现明显的
Bengio在访谈中透出了一股浓浓的「忧郁风」,表示他对自己一生所追求的事业感到某种程度上的迷失。
AiTechYun 编辑:xiangxiaoshan 📷 人工智能一直是2017年的热门词汇,该技术越来越多地用于预测分析营销应用。虽然知道什么时候做重要的商业决策是非常重要的,人工智能的预测能力也可以用来帮助拯救生命。 Clew Medical公司正在推出其人工智能预测分析平台,以帮助防止危及生命的并发症。 简而言之,Clew使用实时数据和机器学习技术来预测患者何时处于危险之中,然后将信息放在易于阅读的界面中,界面看起来像常规仪表板应用程序。从普通患者的300个独特数据元素的数字轨迹中获得信息,其中一些是
在过去的几年中,无人驾驶汽车一直是头条新闻,其他形式的自动驾驶交通工具也正在蓬勃发展。
量子位 | 李林 若朴 发自 凹非寺 “I, For One, Welcome Our New Computer Overlords.” 2011年2月16日的夜晚,Ken Jennings在电子答题
选自One Zero 作者:Alberto Romero 机器之心编译 机器之心编辑部 在GPT-3开源已经成为一个梗之后,OpenAI联合微软推出了Codex,又引来更大的争议。 当金钱砸来时,你是否还能坚持初心? OpenAI 成立于 2015 年,是一家非营利性研究机构,它的愿景是构建出安全、对人类有益的通用人工智能(AGI),由伊隆 · 马斯克、Sam Altman 等人宣布出资 10 亿美元成立。 然而到了 2019 年,OpenAI 转变成了一家名为 OpenAI LP 的营利性公司,由名为
回忆一下,身边是否有过智商高于160的、极聪明的朋友,和他们一起头脑风暴的时候是否有跟不上节奏的情况?聊天时是否总是担心自己的某些小心思透过片言只语被一眼看穿?再想象一下,一个智商200的人,会是什么样的? 📷 神探夏洛克版莫里亚蒂 然后,智商10000的呢?或许有人会觉得智商10000太荒谬了,不可能有这样的人存在。 智商10000的“人”有没可能存在?这里先卖个关子,先抛给大家另一个小问题。 什么是奇点? 对物理学、宇宙学有一定涉猎的朋友会告诉我——奇点是宇宙大爆炸前,宇宙的存在形式。它具有一系列奇异的
OECD(经合组织)副秘书长Douglas Frantz发文,指出AI技术影响广泛,行业团体、创业企业、学者和智库都在从各个角度研究这些问题,呼吁举行强有力的、包罗广泛的全球性对话。该文主要内容如下: 世界发展速度太快,昨天的情景还历历在目,明天已经冲到了眼前。在这当中,没有什么比人工智能发展的更加迅速。十年前在我们的想象中如同科幻小说中的情节一般的应用现在已经成为了我们日常生活中的一部分。 1 人类社会已经发生了彻底的变化 我们每天都在不停地与各种AI(人工智能)应用程序打交道。“学习算法”使我们可以使用
领取专属 10元无门槛券
手把手带您无忧上云