展开

关键词

主义审视

导读2018年5月5日是诞辰200周年,曾写到“哲学家们只是用不同的方式解释世界,而问题在于改变世界”。 文章从主义哲学关于与技术关系的基本立场和观点出发审视的发展,文章认为还有广阔的发展空间,在可预见的未来并不会出现让们恐惧的“奇点”。 从主义哲学关于与技术关系的基本立场和观点出发审视的发展,就会发现还有广阔的发展空间,在可预见的未来并不会出现让们恐惧的“奇点”。 再次,无法通过实践证明自己。 认为,实践源于对世界的准确认识,落脚点是要改变世界。 认为,的主体性是在实践活动中形成,并在实践中得以确认和强化的。不可获得一样的主体性,其行为也不具备实践性。

91920

龙计划投资

法国总统龙计划投资15亿欧元发展.图片来源:NICOLAS NICOLAS MESSYASZ法国正计划大力发展。 该国总统龙昨天宣布了一项15亿欧元的计划,旨在推动法国成为领域的全球领先国家之一。他表示,正给类经济和社会发展带来革命性的影响,美国和中国已经在这一领域取得领先。 龙在巴黎法兰西学院进行的演讲中说,这一战略的重要内容之一是,法国政府将在2022年他的首任总统任期结束前投入15亿欧元,为法国技术研发创造更好的综合环境,其中约4亿欧元专门用于相关颠覆性创新项目的招投标 但龙没有简单采纳该意见,而是希望通过新的项目,为科学家提供利好政策,阻止学术员外流。例如,在新战略的框架下,法国将力求通过相关技术研发孕育未来的龙头企业。 “很难想象未来会怎样,但随着的发展,今天的重大投资数额可并不够。”他说。据悉,法国将重点结合医疗、汽车、源、金融、航天等法国较有优势的行业来研发技术。

40190
  • 广告
    关闭

    2021云+社区年度盘点发布

    动动手指转发活动或推荐好文,即可参与虎年公仔等百份好礼抽奖!

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    观点 | 扎驳斥威胁论:的观点极不负责

    AI 科技评论按:不管是在医疗、教育还是其他领域,AI技术让类享受到前所未有的进步。但有利必有弊,特斯拉的CEO就提出了威胁论,他表示在30年之内AI就会超越类的慧,后果让担忧。 近日,Facebook的CEO扎伯格在直播时驳斥了的观点。Inc.上的一篇发文详述了事情的前因后果。在看文章之前,先考一个问题,你赞同威胁论吗? 图:FacebookCEO ·扎伯格“我不理解那些总是对AI唱反调,试图鼓吹末日的。” 扎伯格说,“他们的言论很消极,在某些方面我认为极其不负责任。” 扎伯格说,“如果通过AI技术杜绝车祸,这会是一个激动心的进步。”特斯拉的汽车已经在公路上帮助司机驾驶,该公司的目标是到今年年底实现全自动驾驶。 上个月,在推特上对一项调查(这项调查表明专家认为AI将在2060年全面超越类)进行了回复。他表示,不会等到2060年,AI更可在2030年至2040年就全面超越类。

    54380

    :生物和电子的融合将更加紧密,类应该准备好成为“半机械

    【新元导读】昨天在WGS峰会上称,在大行其道的时代,类将变得毫无用处,所以类有必要与机器进行融合,变成“半机械”,否则将被淘汰。而且这还解决“谁控制谁”的问题。 根据的说法,到大行其道的时代,类将变得毫无用处,所以类有必要与机器进行融合。 使用“带宽”这个词是最引注目的,因为你可以把带宽应用到未来的类脑机结合的用户体验上。在想中,类心需要进化,以快速获取信息并利用。但如何进化?不确定。 但不用担心,因为正在开发一个超酷的解决方案!即将来临的颠覆在演讲中,也谈及他对“深度”(Deep AI)的恐惧,所谓深度AI是超出了自动驾驶汽车,发展成为“通用”。 把通用描述为“比地球上最聪明的还要聪明”的AI,并且认为这是一种“危险情况”。接着说,更直接的威胁是,AI,尤其是自动驾驶汽车,将取代类的作。

    54070

    推荐的11本必读书籍:宇宙、类和

    :路径,危险,策略)作者:Nick Bostrom曾多次警告过失控的危险。 中,称:“会被用来创造一个不死的独裁者,类将永远处于它的支配下。”他还说:“远超类的数字超体正离我们越来越近。我认为这是一个很明显的事实。” 称Nick Bostrom的这本书非常值得读。这本书会告诉你这些风险有多可怕,它大胆地探讨了如果超越了会有什么后果。 在一部关于的纪录片中谈到:“AI并不一定要变得邪恶才会毁灭类,如果AI有一个目标,类阻止它实现这个目标,它就会不假索地消灭类,一点也不会感到难过,它认为这么做是理所当然的。” Tegmark我们推荐的这11本书中总结出一个结论,他非常热衷于探讨的未来。

    56280

    :从宇宙到脑的征程】若AI攻占地球,猎鹰可带领类移民火星

    为了不被超级统治,认为类只有一个选择:成为AI。于是他又建立Neuralink,走上了新征程。 :对太空的狂热盖过AI猎鹰重型火箭的发射,让无数为之沸腾,也再一次让世界相信的太空梦正在变成现实。火箭发射完整视频:相比之下,显得比较警惕。 早在2014年,就提出了威胁论,称AI是类面临的最大生存威胁,并可因此召唤出“恶魔”。 2017年在“Beneficial AI”会议上,、霍金等全球 2000 多,包括 844 名AI和机器领域专家联合签署了“阿西洛原则”,向全世界呼吁在发展的同时严格遵守这 Neuralink的目标是,通过脑机接口,让维跟上快速改进的。融合后,AI系统将以和类的本大脑与理性大脑同样的特性存在,类甚至无法察觉自己在用AI考。?

    471140

    宣传AI威胁,被Facebook AI负责diss「胡说八道」,回怼:「Facebook真烂!」

    “我相信AI业界的很多觉得这样公开说也没问题:埃隆·根本不知道他自己在谈论AI时在说什么。通用(AGI)这种东西根本还不存在,AI和还完全没可比性。” Facebook扎伯格、Grefenstette、Yann LeCun也曾列席批大军Jerome Pesenti表示这仅是代表个观点,而非官方评论:之后,他又发推表明自己的立场: 1.我意是,通用 Yann LeCun硅谷AI界老前辈中,担忧AI威胁的除了还有比尔盖茨 投资的第一家公司便是DeepMind。 :Nick Bostrom的《超级》值得一读。我们需要对AI保持万分小心,它可比核武器更危险。 Neuralink在去年七月表示体试验将于2020年开始。曾表示,「类面临被超越的风险,但如果通过与电脑连接得到增强,我们就够加入这一旅程。」

    23540

    逊在德国新设AI研发中心,与普朗系统研究所亲密合作

    逊宣布在德国开设一个新的研发中心,重点通过技术来改进用户体验——尤其是在视觉系统中的体验。 亚逊宣布,这个研发中心的成果还将为亚逊AWS云计算服务和Alexa语音助手的用户服务。?△ 图宾根该中心位于图宾根,靠近·普朗系统研究所,他们计划招募100多名机器学习程师。 该公司将在图宾根研发中心与·普朗学会就2016年12月启动的一项合作研究展开协作,并将着眼于技术,同时改进当地的创业生态系统。 本月早些时候有报道称,亚逊收购了3D体建模创业公司Body Labs,他们的科学顾问兼联合创始尔·布莱(Michael J Black)就是·普朗系统研究所感知系统系的主任。? 亚逊表示,布莱将作为一名“亚逊学者”为这个新的研发中心提供支持。他将与该学院经验推论系主任伯纳德·斯科尔考夫(Bernhard Sch?lkopf)共同合作。他们二仍将继续管理各自所在的系。

    45460

    的 “太空跑车” 已绕日飞行一圈,要遨游10亿年

    “这就是类应该移民火星的原因。”说,当失控并与类为敌的时候,火星就会成为类最后的避难所。 埃隆·早在2014年,就提出了威胁论,称AI是类面临的最大生存威胁,并可因此召唤出“恶魔”。 2017年在“Beneficial AI”会议上,、霍金等全球 2000 多,包括 844 名AI和机器领域专家联合签署了“阿西洛原则”,向全世界呼吁在发展的同时严格遵守这 的新征程Neuralink:让类成为 AI除了太空探索、在2017年3月首次披露了他的最新征程——Neuralink。 Neuralink的目标是,通过脑机接口,让维跟上快速改进的。融合后,AI系统将以和类的本大脑与理性大脑同样的特性存在,类甚至无法察觉自己在用AI考。?

    32540

    的“斯芬斯之谜”

    科技的发展产生了关于的“斯芬斯之谜”。类与互相加强的正反馈循环正在逐渐加快,且技术的发展往往不遵循线性的趋势,而是爆炸式的、指数式的前进,这种发展的结果将对类产生极大的影响。 当代的“斯芬斯”的答案可。?发展的“启蒙时期”,是笨拙的、缓慢的,就好像婴儿一样在类父母的引导下挪动手脚、缓慢爬行。 阿里巴巴董事会主席云在今年的大数据峰会上说:“如果我们继续以前的教学方法,我可以保证我们的孩子30年后找不到作。” 技术将严重影响劳动密集型产业,改变全球经济生态。?? 从提出理念伊始,各类文学和影视作品层出不穷,围绕着“的对立与依存”的主题去探讨。抛开对之间伦理问题的考,我们只关注于的技术本身。 说:“各种经济时代的区别,不在于生产什么,而在于怎样生产,用什么劳动资料生产。”如今,科学技术成为了这个时代最大的生产力。

    15820

    为 AI 怼上扎伯格】威胁类文明,历史争论总结

    【新元导读】扎伯格与威胁的争议已经火遍全球。这不是第一次因为说 AI 威胁类生死存亡而与怼起来。 在本周一的一场 Facebook 现场视频问答中,扎伯格被问到他对呼吁世积极监管的看法——在这方面一直很高调,表示要在机器变得比更聪明、变危险前开始积极监管,要不然 AI 扎伯格表示,他对技术感到乐观,们不应该呼吁放缓发展进展。?随后,在 Twitter 上进行了回应——跟扎伯格谈过这件事后,认为扎伯格在 AI 威胁类方面的理解有限。 是有名的威胁论支持者。但同时,他在 AI 方面的投入也不少。 担忧?这还不是想的最远的认为 AI 威胁类文明的观点很大程度上可受 Nick Bostrom 的影响。Bostrom 是牛津大学类未来研究院院长,畅销书《超级》的作者。

    43380

    《未来简史》后划时代巨作,《生命3.0》给类命运一份终极指南

    泰格认为,我们必须研究的长期社会影响,尤其是出现所谓“超级”的可性。泰格:创立未来生命研究所,全球最具原创性的科学家之一? 未来生命研究所官网生命3.0:完全摆脱自然进化的束缚,永生不朽泰格把他的索写成了新书《生命3.0:时代,类的进化与重生》(Life 3.0:Being Human in the Age 我认为看泰格这本书可需要了解这个想。我们在本土讨论时,几乎看到的都是粗俗不堪的讨论,顶多讨论到代替吗?或者什么时候代替?然后就 happy地看世界杯去了。 我们新元想要做点什么,这次邀请《生命3.0》作者泰格参加我们9月份在国家会议中心举办的2018 AI World世界大会,就是希望有这样一种高层维上的交流和碰撞。 所以,“造福类”这样一个浮在很高层面上的问题,泰格把它落实到了一些很具体的问题上,就说怎样理解类的目标。这个很值得我们深

    26300

    再谈“AI威胁论”,吴恩达也看不下去了

    在七月中旬美国州长会议访谈里提到。“我们以后需要一个闪光灯,才知道他们在移动。”在推上说。“为什么要用闪光灯?”有跟帖问。?“不然的话,只看见模糊的影子。”回推。? 这次事件,波士顿动力Altas类机器运动力的提高,正好给了一个话头。借此再次呼吁他这几个月希望大家重视的问题:的快速发展,可会带来很大的安全隐患。 他反复强调,“我们需要考,什么样的监管制度才约束AI可给我们类造成的伤害。”“我们必须要建立的监管机制了。安全和食品安全、药物安全、航空机动车安全管理一样,必须要监管。 自己的好几家公司,都属于重度依赖技术的:两家商业公司,带自动驾驶平台的特斯拉,研发脑机接口的Neuralink;重度支持的两个公益组织,预防的灾难性影响的OpenAI和未来生活研究所 今年夏天,他还和扎伯格互怼过。一开始发表观点,说“现在发展太快,需要赶紧成立联邦管理局。”?

    35460

    类与AI之关系走向未明

    这种预想难免让一些难以接受,然而回顾即将结束的2017年,高速发展的技术让脑机相连这看似荒诞的想法越来越具有现实考的价值。类与AI的关系将走向何方? ,而是更加强大、集中化的;9月,在推特上说,国家层面的优势之争可成为引发第三次世界大战的导火索。 蒂姆·库:苹果CEO库在今年6月的麻省理毕业典礼和12月的世界互联网大会上先后表示,他并不担心机器会像一样考,而是担心像机器一样考,舍弃同情心与价值观,做事不计后果。 丁·里斯:4月,英国著名天体物理学家丁·里斯表示,未来几百年内,类可会被AI超越,世界可进入机器统治的时代。超级诞生之后:“1984”还是“美丽新世界”? 根据的解释,这颇有点以毒攻毒的意,我们唯有先行用AI武装起大脑,才掌握控制权,以免被AI反制。

    27460

    :特斯拉正开发“全球最棒”的芯片

    北京时间12月8日下午消息,特斯拉CEO埃隆·(Elon Musk)周四在一场学术和行业研究员会议上谈到了该公司为开发定制硬件方面的作。 特斯拉硬件副总裁吉姆·凯勒(Jim Keller)与一同参加了会议。他此前是AMD芯片架构师。在讲话中介绍了凯勒目前从事的作。 表示:“吉姆正在开发专门的硬件,我们认为这是全球最棒的。”未来,这些专用硬件可会被用于特斯拉汽车,处理自动驾驶所需的计算作。目前,特斯拉的自动驾驶硬件系统依赖于英伟达的GPU芯片。 今年9月有媒体报道了特斯拉在芯片方面的作。包括福特和通用在内的多家汽车厂商正在开发自动驾驶技术。自动驾驶公司Waymo的母公司Alphabet已开发了可替代英伟达GPU的定制芯片。 苹果也在关注自动驾驶技术,该公司开发定制芯片,处理移动端的计算任务。在周四的讲话中,凯勒表示,利用定制硬件有可提高效率,而则谈到了耗和成本优势。

    28100

    亿万富豪-库班:不学,三年就变恐龙

    ,深度学习,机器学习——无论你在做什么,如果你还不明白这些——赶紧去学”,-库班说:“否则的话,三年之内你就会变成一只恐龙”。变恐龙?就是out啦! 这个说法等同于中国很早之前那句:三年不学习,赶不上某某某……库班,更为所知的身份是亿万富豪、NBA达拉斯小牛队老板,然而库班早在1983年就创立了计算机咨询公司MicroSolutions,并在1990 从此开始走上生巅峰。开头那句话,是库班在一次对话式采访中说出的。库班还表示,未来5-10年将要发生的事情,会深刻的影响到每个,特别是在自动化领域。 如果有更多的公司上市,就创造更多的生态系统。而那些早期支持创业公司的资金,也需要通过上市退出。库班说他在旧金山的投资下降了90%。

    48180

    搞出了脑机接口,真的要来了么?

    这个消息一出,朋友圈直接沸腾了,很多公众号疯狂转发表示的时代要来了,还有很多发出担忧,未来会不会真的统治类,威胁到类的生存呢?? 还有些觉得应该够像类一样考,关于这个问题不同的有不同的看法。其实这一点学界在几十年前就已经下过了定义,大名鼎鼎的计算机科学与之父图灵曾经就给出过一个关于的定义。 甚至我们类自己都没搞清楚自我意识是什么,怎么可将它赋予给程序呢?这些我们够想到的问题,其实很早也有计算科学家进行考了。关于的反驳有一个著名的观点叫做中文房间悖论。? 所以这次搞的脑机接口,实际上也是脑电波的一种应用。只是可之前的科学家更多的是用传感器来接收脑电波,改成芯片植入,并且做得比较成功。 虽然的这次发布会成果并不像各个自媒体公众号吹得那样天花乱坠好像近在眼前,但我个认为它还是很有价值的。科技的进步本来就是曲折以及缓慢的,很多了不起的成就也是通过一点点探索实现的。

    23730

    为什么 AI 圈那么多都不喜欢? Etzioni:伤害大于贡献

    【新元导读】 在圈,可谓是一位怪咖:他一边对 AI 的未来忧心忡忡,认为发展AI 就是在“召唤恶魔”,一边又在特斯拉、OpenAI 甚至是DeepMind进行投资。 艾伦研究院的CEO Etzioni 在接受 Inverse 采访时直言:“我从未听任何说过的半句好话,可说过,但我没听过。不感兴趣。” 为什么会那么招讨厌? 对于类未来的愿景是光明的。只要你别让他谈。当他开始谈论 AI,你就得留心别被洗脑了。 当被问及的爱好时,艾伦研究所 CEO Oren Etzioni 说:“非常的不负责任,又虚伪,我真是不明白为什么他要做那些事。” 当引用《终结者》时,即便他只是开玩笑地说说,他的600万推特粉丝却忽略了这些真实存在、必要的话题。2014年在麻省理学院演讲时,对一位听众说“发展,我们是在召唤恶魔。”

    50370

    硅谷钢铁侠类要么和机器融合,要么被AI时代抛弃

    硅谷钢铁侠、亿万富豪伊隆-素以未来主义的想而出名,昨天这位Tesla和Space X的首席执行官表示:类需要与机器融合,成为某种机器。 “随着时间的推移,我认为生物和数字,会发生更为紧密的融合”,说这番话时在迪拜出席世界政府峰会,他补充说:“这主要是关于带宽,你的大脑和你的数字版本之间的连接速度,特别是输出的部分”。 在一个即将普及的时代,类是无用的,所以有必要与机器融合,说“一些连入脑的高带宽接口,将有助于实现类和机器的共生,并有可解决控制问题和有用性的问题”。 在这次演讲中,表达了对深度的恐惧,这种深度将从无驾驶汽车,一直发展成为通用AGI。这种是“比地球上最聪明的还要聪明”的AI,认为这是一种“危险情况”。 然而更直接的威胁是,AI将如何取代们的作,预计未来20年内,AI将会逐步影响到们的作,有12-15%的全球劳动力将失业。

    37050

    中兴视觉大数据报道:类的大脑应当永远比

    这两天,扎伯格与关于的争议旧事重提。 2014年11月19日,扎伯格在美国加州帕洛阿尔托的家中设宴招待,作陪的有Facebook新成立不久的实验室的两名顶级研究员和另外两名公司高管。 吃饭期间,说:“我真的认为是危险的。”扎伯格和Facebook团队试图说服,认为他对的看法是错误的。 但是,并没有动摇自己的观点,认为如果我们创造出比类更聪明的机器,它们可会背叛我们。甚至还说:“的危险要远大于核武器的危险。” 是否危险,当然要争论下去,不过,关于引发的危机还有很多,包括都想不到的地方,即和其他科技手段和成果的应用会降低自身的商),从而引发危机。

    27520

    扫码关注云+社区

    领取腾讯云代金券