展开

关键词

统治地球?

有不少科学家与媒体上的评论文章,都对(artificial intelligence,AI)可带来的险提出过警告;这类对于以及所衍生的器(intelligent machines 若以上述的观点来看器,也许它们可带来的险并非是电影或科幻小说所描述的、将造成的灾难,而是一种会造成同样的结果、 但无法控制的演化过程──先别害怕,因为我的看法是,器的存在需要一把特别的演化钥匙 ,器成为一个独立的演化新分支;第三个选项则是器与类 在同一个演化分支上。 而是否将达到某个程度,理解类情感的本质并操弄像是贪婪、渴望,并创造出一个对器有所需求的环境? ●第一代器的复杂度、不可预知的性、故障或可靠性不佳等问题,是否有可导致类演化分支最终面临

57680

“新物种”器诞生可性有多大?

有不少科学家与媒体上的评论文章,都对(artificial intelligence,AI)可带来的险提出过警告;这类对于以及所衍生的器(intelligent machines 若以上述的观点来看器,也许它们可带来的险并非是电影或科幻小说所描述的、将造成的灾难,而是一种会造成同样的结果、但无法控制的演化过程──先别害怕,因为我的看法是,器的存在需要一把特别的演化钥匙 是否将达到某个程度,理解类情感的本质并操弄像是贪婪、渴望,并创造出一个对器有所需求的环境? 那所谓的器物种将会是什么样子?是长得像类的吗?生物演化让类拥有非常优异的“引擎”,消耗各种现有的食物与氧气;如果器模仿了这种特性,意味着它们的某些零件可会具备类的特征。 而还有几个我们应该立刻思考并寻求解答的重要问题是:器的实际发展前景与时间表为何?第一代器的复杂度、不可预知的性、故障或可靠性不佳等问题,是否有可导致类演化分支最终面临

34240
  • 广告
    关闭

    云产品限时秒杀

    云服务器1核2G首年38元,还有多款热门云产品满足您的上云需求

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    最聪明的!它是第一个获得类公民身份的

    总部设在中国香港的汉森技术公司(Hanson Robotics)参加了本次论坛。在专题的分组讨论(panel session)过程中,推介了一个名叫索菲亚(Sophia)的女性。 她指出,成为拥有沙特阿拉伯护照的首个,对自己来说是莫大的荣幸。谷歌公司已经成立一个伦理委员会,专门处理和监督领域的相关问题。 谷歌公司还收购了多家公司,其中包括Deep Mind公司。该公司创始之一谢恩-莱格警告称,是“本世纪第一大险”,他相信将是的主因之一。 谢恩-莱格表示,“我认为,最终会发生,技术将可在其中扮演重要角色。”谷歌公司伦理委员会就是确保不被滥用。 不过,霍金也表示,地球上的一场灾难并不会造成类的,因为类也许会找到向太空拓展的途径。类,你们准备好了吗?

    58560

    被“北白犀将”刷屏?保护野生动物,ARVR也许帮上忙

    前日,肯尼亚奥尔佩杰塔自然保护区对外公布:地球上最后一头雄性北方白犀牛“苏丹”于当日以安乐死方式离开了世。“苏丹”死亡后,北方白犀牛种群仅剩2头雌性白犀牛,这意味着这一种群将濒临。 ? 虽然,科学家目前正在尝试通过体外受精,来繁殖北方白犀牛,但幸存的两头雌性白犀牛都是“苏丹”的直系亲属(女儿和孙女),而严重近亲繁殖的种群几乎没有自然延续的长期可。 这意味着,北方白犀牛即将成为继2011年的西方黑犀牛外,第二个因盗猎而的犀牛亚种。?类对自然,一方面充满了敬畏与好奇,一方面又在毫无节制地进行干预与破坏。 此外,VRZOO还将为用户带来包括乌干达、南非、马尔代夫、埃及、澳大利亚及黑手党岛等全球各个地区的360°视频直播,带领观众走近世界上最神秘的生物圈,了解那些面临风险的濒动物。? “置身荒野”AR体验,适配全球首款支持谷歌Project Tango的Phab 2 Pro。

    56080

    拔刺 | 超会给类带来什么害?

    今日拔刺:1、超会给类带来什么害?2、Google如何透过搜索结果洞察搜索者的意图?3、宇宙存活亿年的文明,可以瞬间摧毁银河系吗? 本文 | 1728字 阅读时间 | 4分钟超会给类带来什么害?2016年开始慢慢的走入我们的视线,随后这一词就一直被挂在口中。 分为弱、强和超,现在的科技虽然发达,但是也仅停留在弱的阶段,们渴望科技发达带给他们越来越多的便利,但是也会害怕当发展越来越迅速后对类造成害。 弱就是你现在看到的,小到计算大到无地铁,只专注的完成某个特定的任务,你让扫地去给你唱歌那是万万不可的,他们只是一台器并没有任何的思想。 我们希望科技越来越发达,但是但凡有了自己的思想并且超过类,那这个世界岂不是要乱套了,超如果发明出来,那对是弊大于利,凡事还是切记不过。

    70950

    的革命:类的死或生(510)

    这些中的一部分也会难掩兴奋,想要知道超级类做些什么 ——但他们只是有点担忧,害怕这会像是《夺宝奇兵》那样,而类就是这位仁兄:? 当这片未知区域将会产生重要影响时,类打开了最恐怖的一扇门: 生存。 生存是一种可会永久毁类的一种情况。通常生存意味着。 你可以看到“生存”的标签是指那些涉及到多物种,跨代(意为永久),而且结果是毁性的,致命的事件。比如全类都被折磨,忍受,甚至类自己——恐怖分子使用自己手中的武器也导致,全球灾难性的战争,类仓促的创造了很多比自己更聪明的东西,但还没有准备好如何安全的使用它们。 你将会听到很多超级AI可会带来的潜在的威胁——随着AI可以参与越来越多的作,失业率则会上升,如果我们可以治疗衰老,那口就会膨胀,等等这样的可。但我们应该关注这个最大的风险:生存的潜在可

    32080

    周志华:为什么要抵制韩国大学研发自主武器

    昨天,周志华教授接受了新元采访,他认为,KAIST的做法,其险之处在于让器自己去决定是否进行对类的毁性打击,就像公开信中所说的:如果这样的武器开发出来,自主武器将导致战争的第三次革命,战争将比以往任何时候都更容易发生并且更残忍 同时,周志华教授还认为,迄今为止主流领域的研究,都不支持让器拥有自主意识。霍金等所担忧的,实质上就是强。 而自主武器,是要把这个“决定权”交给器,让器自己去决定是否进行对类的毁性打击,这太险了。正如公开信中所说:它们(自主武器)有可成为恐怖分子的武器。 迄今主流领域的研究,都不支持让器拥有自主意识。《中国计算学会通讯》今年初曾刊载周志华的《关于强》一文。在文中,周志华认为,强“不做、不该做!” 所以整个领域研究的基础,都是考虑在给提供辅助,让类自己去做更明的决策。没有技术保障“自主”器不犯下对类毁性的错误。

    55970

    畜牧业养殖场防火措施之慧用电

    【关键词】养殖场;慧用电;安全用电;1浅谈养殖场防火措施猪、马、牛、羊等养殖大棚是火灾发生的高地带,为防范火灾的发生,养殖户应加强防火措施,杜明火,严禁乱拉电线,用煤炉加温时,与周边可燃物保持一定距离 养殖场(户)业主在严格遵守和执行安全生产相关法律法规的同时,还须做到以下几点:1.1养殖场需依法设置安全应急管理构,配备专职或兼职安全生产应急管理员,建立应急管理制,制定安全生产应急管理预案。 需与员签订劳动合同,并载明有关保障从业员劳动安全,防止职业害的事项,以及依法为从业员办理伤保险的事项。需每年对员进行体检,并建立个体检档案。 消防设施设备配备齐全(有消防沙,每500平方米养殖棚配备8KG干粉火器两具)。疏散通道、安全出口保持畅通。疏散指示标志、应急照明完好。员会使用火器。柴草等易燃品采取隔离。厂区内严格管理明火。 产品采用先进的微控制器技术,集成度高,体积小巧,安装方便,集化,数字化,网络化于一身, 是建筑监控装置预防监控、系统缘老化预估等的理想选择。

    16520

    看这家创新公司用NVIDIA Jetson TX1搞什么飞

    按照这个速度,20年内这些动物将会完全在这个世上。位于波士顿的新创公司 Neurala 为了挽救这个,运用搭载深度学习技术的无以秘密行动、速度、规模来打击盗猎者。 同为 NVIDIA Inception 计划(这是一项 NVIDIA 为采用技术之新创公司所推出的赞助计划)成员的 Neurala,将用在无的摄影上,在天空进行拍摄,目的在更深入地追踪这些濒动物及锁定非法盗猎活动 这些无上的红外线光,让它们在濒动物的生活地区,于夜间监视地面活动。? Neurala 执行长 Max Versace 表示这些无内建的 GPU,让 Neurala 采用无的这个作法占有优势,其中搭配的技术够在极短时间内处理出精确结果。 实时分析影片内容,辨识出靠近动物身旁的盗猎者,且要是侦测到盗猎者,便会通知类分析师,以通知当地的管理员。也协助分析师进行分析作。

    505110

    开颅,我们扩充自己的脑容量吗

    1..复活已的物种作为的一个亚分支,尼安德特拥有着比还要大的脑容量,甚至逼近了现代的脑容量值。 此前也有一些生物学家克隆濒动物的先例,在2009年,西班牙山羊已经的亚种巴卡多,从冰冻的皮肤样本中被克隆出,虽然新生儿因呼吸衰竭而当场死亡,但它的诞生表明,复活已的物种还是可行的。 上文中也提到,尼安德特的脑容量比还要大,与现在的现代十分接近甚至高于现代,目前也有很多证据表明尼安德特是拥有不低的力的(他们甚至还会化妆),那为什么现代的这个“近亲”会呢? 我们大概可以用两句老祖宗留下来的话总结尼安德特留存的原因,即“聪明反被聪明误”和“三个臭皮匠顶过一个诸葛亮”。 而“大脑微型化”这一结论不仅影响了我们对脑容量大小的认知,更为的研究提供了新的见解。简单来说,“大脑微型化”的行为就类似于电脑芯片中晶体管体积的缩小。

    19920

    《资讯》霍金:的威胁就像核武器,世界将发生10大变化!

    如果我们不学会如何避免风险,那么我们会把自己置于境。如果有设计计算病毒,那么就有设计不断自我完善、直到最终超越类的,其结果将是一种新的生命形式。 的真正风险不是它的恶意,而是它的力。一个超在完成目标方面非常出色,如果这些目标与我们的目标不一致,我们就会陷入困境。”2类的影响,可以从短期、长期两方面来分别讨论。 短期担忧——自主武器、隐私的全方位发展可招致类的亡。比如最大化使用性自主武器。 由于逐渐开始解读大量监控数据,这些都会被洞察的一览无余。3长期担忧——系统失控的潜在风险遵循的一个逻辑是,“计算在理论上可以模仿,然后超越”。这一天很快会到来。 未来,可以发展出自我意志,一个与我们冲突的意志。我们无法知道我们将无限地得到的帮助,还是被藐视并被边缘化,或者很可被它毁

    233100

    AI使物联网更的5种方法

    看到微软对物联网和的结合感兴趣是一个明确的信号,表明将这两种最新技术结合起来确实有潜力。让我们来看看是如何改善物联网的。航空公司组管理波音是航空业的巨头。 波音的子公司Jeppesen设计了基于的软件,该软件使用物联网数据分配组成员执行任务。 特斯拉公司在利用一系列传感器,雷达,摄像和GPS提供安全的自动驾驶体验方面做得非常出色。 目前,和物联网的结合使特斯拉汽车够学习并适应各种交通状况,最终将使全自动无驾驶汽车成为现实。 的实施可以产生更有效的路线,削减其他运营费用并自动委派作,而无需干预。如果将自动驾驶汽车纳入考虑范围,我们将看到一家通过AI和IoT共同努力全面运营的运输公司。 防止物种我们经常将自然视为理所当然,而忘记了技术进步的灵感和资源是自然界中最常见的。为了防止由于我们的疏忽或直接影响而的物种,环保主义者正在使用各种具和做法。

    16600

    盖茨、马斯克提醒类警惕

    在后一种情况下,一般也许可以控制自己的私器,如自己的汽车或计算,但对于大型器系统的控制权将落入一小群精英之手,大众成为了多余的。如果精英集团失去了怜悯心,他们完全可以决定类。 看看当下的普及,以及“低头族”的比比皆是,类正在不知不觉中失去自我,正在加速自我的毁。 马斯克认为,发展是在“召唤魔鬼”,“比核技术更险”,并表示将投资于太空设置,监控。盖茨则说过:“我属于对超级充满担忧的阵营。 如果替代类做事但没有发展为超级,此时只要管理好这些器,善于利用似乎没有太大险。但是,在几十年的发展之后,很可强大到需要警惕的阶段。”? 正是因为对的担忧,2016年3月,数百名专家曾在一封公开信上联合签名,呼吁各政府和国际社会对的研究进行合理监管,确保最前沿的研究不会失控,对类造成毁害。

    40140

    又一个“铁饭碗”砸了…10万家店、100万或被淘汰!

    里面有句话,叫做:我消你,与你无关。这真是一句残酷、无情、斩钉截铁的话,它充满大慧,揭示了整个类世界前进和发展的基本规律。 再比如,以前,我告诉你,要取代大量的力活动,你会信吗?可是,现在百度、阿里、腾讯、科大讯飞在自动驾驶、城市大脑、医疗影像、语音上的发展,已经到了一个让瞠目结舌的地步! 一旦高速路上的移动充电实现了,这10万个铁饭碗、100多作岗位,大概率非常险了......三这真是一个其兴也勃、其亡也忽的时代。 这个跨界打劫、飞速变化的时代,就如同一个四伏的暗黑森林,每个企业都是带枪的猎,你永远也无法想象下个竞争对手。随着新技术、新模式的不断涌现,没有哪一个行业、哪一个企业,不是离死亡不是一步之遥而已。 就拿来说,前不久,全球咨询业巨头麦肯锡对给出一个触目惊心的判断:随着的迅猛迅速,到2030年,全球8亿口的作岗位将被器取代。8亿!是的,你没看错,是8亿!!

    247100

    霍金:的威胁就像核武器,世界将发生10大变化!

    如果我们不学会如何避免风险,那么我们会把自己置于境。 如果有设计计算病毒,那么就有设计不断自我完善、直到最终超越类的,其结果将是一种新的生命形式。 02类的影响,可以从短期、长期两方面来分别讨论。短期担忧——自主武器、隐私的全方位发展可招致类的亡。比如最大化使用性自主武器。 由于逐渐开始解读大量监控数据,这些都会被洞察的一览无余。03长期担忧——系统失控的潜在风险遵循的一个逻辑是,“计算在理论上可以模仿,然后超越”。 未来,可以发展出自我意志,一个与我们冲突的意志。我们无法知道我们将无限地得到的帮助,还是被藐视并被边缘化,或者很可被它毁。 但也有可类文明史的终结,除非我们学会如何避免险。我相信我们团结在一起,来呼吁国际条约的支持或者签署呈交给各国政府的公开信,科技领袖和科学家正极尽所避免不可控的的崛起。

    14420

    霍金:像核武器,给世界带来10大变化

    如果我们不学会如何避免风险,那么我们会把自己置于境。 如果有设计计算病毒,那么就有设计不断自我完善、直到最终超越类的,其结果将是一种新的生命形式。 02类的影响,可以从短期、长期两方面来分别讨论。短期担忧——自主武器、隐私的全方位发展可招致类的亡。比如最大化使用性自主武器。 由于逐渐开始解读大量监控数据,这些都会被洞察的一览无余。03长期担忧——系统失控的潜在风险遵循的一个逻辑是,“计算在理论上可以模仿,然后超越”。 未来,可以发展出自我意志,一个与我们冲突的意志。我们无法知道我们将无限地得到的帮助,还是被藐视并被边缘化,或者很可被它毁。 但也有可类文明史的终结,除非我们学会如何避免险。我相信我们团结在一起,来呼吁国际条约的支持或者签署呈交给各国政府的公开信,科技领袖和科学家正极尽所避免不可控的的崛起。

    39080

    会让贫富差距更大,真的吗?

    随之技术的发展,类越来越担心在未来会抢走作,比尔·盖茨也提出了要向征税以示公平。《卫报》近日撰写的评论文章指出,不仅仅会抢走类的作,还会让贫富差距更大。? 以下是文章主要内容:技术不断提高,但税收等政治改革并未随之跟进,最终不仅会带来恶果,还将招致世界末日。应该交税吗?这听起来可有些奇怪,但最近许多知名士一直在问这个问题。 尽管就当前的来说,这有些言过其实了,但在过去几年,们确实取得了有意义的进步,不难想象更大的突破已在地平线上露出苗头。科技不仅是改造作,而是开始消它。 从私到私岛屿,富已经投入了大量的时间和费用来与其他缘。但只要资本需要劳动来完成自我复制,即使是最坚固的豪华掩体,也不让他们与世隔。大规模自动化则有可切断这种连接。 他为这种未来想了一个恰如其分的可怕名称:终结主义(exterminism),一个由“富对穷发起的种族战争的”世界。这些反乌托邦作品可听起来像科幻小说,但它们完美地描绘出类当前的轨迹。

    40650

    【脑洞】会毁类吗?

    在形容那些向世界释放毁性技术的时,的创造者们往往会用“弗兰肯斯坦博士”的形象来形容,“弗兰肯斯坦”是小说《弗兰肯斯坦》中那个疯狂科学家的名字,他用碎尸块拼接成一个“”,并用电激活。 在真实的生活中,创造者们却试图为一些大问题寻找答案,例如正义对抗邪恶,的浪潮的影响,器大脑对的影响等问题。? 一些科学家看得更远,他们开始分析在哪些地方的影响可会超过类。去年谷歌收购了DeepMind,这是一家公司,它关注基础研究,目标是开发比类聪明的器。 Facebook研发主管伊恩•勒坤(Yann LeCun)则说:“器的力会是完全不同的,有做坏事伤害他的动器没有。” 约翰斯顿说:“我们越来越意识到器学习和很可马上就会出现,当它们真的出现时,我们清楚它的影响是很大的。既然这样,我们扮演什么角色呢?我们如何从技术中获得最大的会呢?

    45750

    霍金走了,留给世界对的十大思考

    如果我们不学会如何避免风险,那么我们会把自己置于境。 如果有设计计算病毒,那么就有设计不断自我完善、直到最终超越类的,其结果将是一种新的生命形式。 02类的影响,可以从短期、长期两方面来分别讨论。短期担忧——自主武器、隐私的全方位发展可招致类的亡。比如最大化使用性自主武器。 由于逐渐开始解读大量监控数据,这些都会被洞察的一览无余。03长期担忧——系统失控的潜在风险遵循的一个逻辑是,“计算在理论上可以模仿,然后超越”。 未来,可以发展出自我意志,一个与我们冲突的意志。我们无法知道我们将无限地得到的帮助,还是被藐视并被边缘化,或者很可被它毁。 但也有可类文明史的终结,除非我们学会如何避免险。我相信我们团结在一起,来呼吁国际条约的支持或者签署呈交给各国政府的公开信,科技领袖和科学家正极尽所避免不可控的的崛起。

    413100

    霍金:导致

    他的意思是:会导致类的亡。当你为技术的飞速发展而欢呼雀跃的时候,你是否想过这可并不是一件好事? 霍金担忧的对象不仅仅是未来的技术,甚至还包括现在的一些公司比如谷歌和Facebook。他说:“的短期影响取决于由谁来控制它,而长期影响则取决于它是否够被控制。” 不管从短期还是长期角度来说,都存在着巨大的潜在风险。实际上,霍金似乎根本就不信任所谓的专家。 程师们似乎并不关心们在开车的过程中获得的乐趣。霍金承认,和其他的设备也许会给类带来巨大的好处。如果那些设备的设计非常成功,就类带来巨大的好处,他说那将是类历史上最大的事件。 然而他同时也提醒说,也有可类历史上最后的事件。实际上,类在考核技术的潜在风险和收益方面所做的研究作太少。霍金对此表示担忧和哀叹。

    42280

    扫码关注云+社区

    领取腾讯云代金券