在瑞典斯德哥尔摩举行的IJCAL 2018上,由MIT著名物理学家Max Tegmark发起,其任职主席的生命未来研究所(Future of Life Institute,FLI)起草,该协议一经发出就应者如云。
事实上,严格来说,3级的有条件自动化驾驶汽车已经实现,只是还未普及而已,至于4级的完全自动化,也就是真正意义上的无人驾驶还离我们很远。就连自动驾驶汽车领域最为知名的特斯拉电动汽车,目前也只能提供3级的自动化驾驶汽车。像百度、谷歌这样的厂商也在开发,根据最新的报道,百度声称可以提供L4级别的自动驾驶汽车,但也限于高度自动化,还没有量产使用。
大数据文摘作品,转载要求见文末 编译 | 宁云州、钱天培、杨捷 日前,在世界最大的人工智能会议之一的IJCAI 2017上,116名世界领先的机器人和人工智能公司的领导人联名发布了一封公开信,敦促联合国紧急处理可致命自动武器(通常称为“杀手机器人”),并禁止它们在国际上使用。 116位AI和机器人界大佬联名呼吁禁止“杀手机器人” 随着人工智能的发展,计算机开始在各个领域上渐渐超过人类,近些年更是在围棋甚至Dota2上也超越了人类,而作为AI特殊的应用领域之一,自动武器系统的危险性不言而喻,如果被别有用心之人
新智元编译 作者:venturebeat.com 翻译:刘小芹 【新智元导读】马克斯·泰格马克是人工智能领域最重要的思想家之一,《生命3.0:在人工智能的时代生而为人》的作者。本文是venture
作者 | 费棋 一群类似杀人蜂的小型无人机冲入课堂,以人脸识别技术瞬间定位所有学生,将他们全部杀死。 这是去年 11 月伯克利大学教授 Stuart Russell 在联合国特定常规武器公约会议上放出的一段虚拟视频。尽管这段视频和其中的杀人机器人并不真实,但其中的科技目前已经存在。试想如果这种技术落入到恐怖分子手里,后果将难以设想。 机器人的发展如果趋向恶的一面,那就像是潘多拉魔盒,异常凶险。 近日,超过 50 位人工智能领域的专家联名抵制韩国科学技术高级研究院 KAIST 开发“杀人机器人”。这是
日前,在为期一周的日内瓦首脑会议上,联合国常规武器公约(CCW)的一个小组讨论了是否就AI驱动的完全自主武器问题展开正式谈判,制定一个禁止AI驱动的完全自主武器的条约。
在2018年7月18日召开的斯德哥尔摩IJCAI上,马斯克和一个成立仅三年的组织“未来生命研究所”再一次被推上舆论的风口浪尖。
【新智元导读】周三,2000多名AI学者在斯德哥尔摩IJCAI上,马斯克、哈萨比斯等2000多人签署宣言:决不允许杀人机器人出现!誓言绝不将他们的技能用于开发自主杀人机器。这场宣誓行动由泰格马克创办的未来生命研究所发起。泰格马克将亲临北京参加9月20日新智元AI WORLD 2018 大会,与周志华、陶大程、陈怡然等AI领袖一起关注机器智能与人类命运。大会官网:
📷 新智元原创 作者:克雷格、肖琴 【新智元导读】最近,韩国科学技术院因为与军工企业“韩华 Systems”合作研发自主武器,遭到来自全球20多个国家的50多名AI学者联名抵制,其中包括Yoshua Bengio、Geoffrey Hinton以及南大计算机系教授周志华。研发自主武器将会加速AI军备竞赛,像这样的技术可能导致更大规模的战争加速到来。科学不应该成为战争的帮凶和附庸工具,向这些学者们致敬! 最近,韩国科学技术院大学(KAIST)遭到了全球20多个国家、50多名高校顶尖AI学
来自加拿大和澳大利亚的机器人和人工智能领域的专家们呼吁政府对杀手机器人下达禁令,专家们反对自动化武器的使用,并且认为它们的研发和使用越过了道德底线。 在新南威尔士大学Toby Walsh的组织下,澳大
---- 新智元报道 编辑:拉燕 【新智元导读】谷歌前首席执行官Schmidt认为,AI就像核武器一样。你同意这个说法吗? 把AI比作核武器,你觉得合理吗? 谷歌前首席执行官Eric Schmidt将人工智能比作核武器,并呼吁建立一个相互保证的威慑制度。 类似于核武器的那种。 人工智能和核武器一样危险吗? 7月22日,Schmidt在阿斯彭安全论坛「关于国家安全和人工智能」的小组讨论中,谈到了人工智能的危险性。 在回答有关科技界道德价值的问题时,Schmidt表示,早期他自己在谷歌公司时,也
Max Tegmark是麻省理工学院的教授,基础问题研究所的科学主任,以及生命未来研究所(FLI)的联合创始人。
传说地球上本没有火种,那时人类的生活非常困苦,没有火烧烤食物,也没有火来照明。普罗米修斯造福给人类,冒着生命危险,从太阳神阿波罗那里偷走了一个火种,给人类带来了光明。但他殊不知,火种带给人类的不只是光明,还有更多的麻烦。
安妮 编译整理 量子位 出品 | 公众号 QbitAI 据外媒Fortune报道,昨天,116名机器人和AI公司创始人和CEO联手签署了一封给联合国的公开信,呼吁禁止使用机器人武器,也就是常说的“杀人
自大语言模型诞生以来,人们对其可能带来的影响的讨论就没停过。不过,更多人还是从普通人的视角出发,从LLM能对人们的日常工作生活带来哪些变化来思考的问题。
而且就是因为Google参与该项目,内部抗议一波接一波,离职进谏者不计其数,近4000员工联名声讨。
谷歌今天发布了AI原则,其中包括禁止制造自动武器和对人有害的AI应用程序。在数千名员工发起抗议,谷歌宣布不会续签与美国国防部合作分析无人机影像的合同之后,这一原则终于出炉。
【概要】美国宾夕法尼亚大学政治学教授Michael C. Horowitz在美国《国外政策》杂志上撰文,讨论了目前主要国家开展人工智能竞赛及其与军事竞争的关系。
【新智元导读】刚刚,委内瑞拉总统在国民警卫队成立81周年庆祝仪式上发表讲话时,突然遭到携带炸药的无人机袭击,电视直播记录下了全过程,原本整齐列队的士兵像流水一样四处狂奔。总统虽然没受伤害,但至少有7人受伤。
大数据文摘出品 谷歌前首席执行官埃里克·施密特(Eric Schmidt)在一次访谈中,将人工智能比作核武器,并呼吁建立一个类似的相互确保毁灭的威慑机制,以防止世界上最强大的国家因为AI相互毁灭。 相互保证毁灭(Mutually Assured Destruction,简称M.A.D.机制,亦称共同毁灭原则)是一种“俱皆毁灭”性质的思想。对立的两方中如果有一方全面使用则两方都会被毁灭,被称为“恐怖平衡”。 施密特将AI与核武器相对比,表示中美未来可能要缔结类似于禁止“核试验”相似的条约,以防止AI毁灭世界
“世界正在向人工智能驱动的生态系统发展,”国防部秘书Ajay Kumar博士在一份声明中表示。“印度也正在采取必要措施,为未来的战争准备防卫力量。”
【新智元导读】AI的发展已经开始引起人们对“杀手机器人”威胁和AI军备竞赛风险的恐惧,本文对比美国、中国、俄罗斯的AI军事力量,探讨AI技术被用于军事的潜在影响,并评估如何减少发生错误或失控的风险。 今天人工智能(AI)的快速发展可能会破坏或动摇现有的军事平衡。人工智能或“超级智能”的潜在实现值得讨论,但它仍然是一个相对遥远的可能性。但是,AI的发展已经开始引起人们对“杀手机器人”威胁和AI军备竞赛风险的恐惧。伊隆·马斯克(Elon Musk)甚至在推特上写道:“在我看来,在国家层面上的AI竞争很可能引发第
---- 新智元报道 编辑:桃子 【新智元导读】科学家一直以来争辩的AI末日论,是过于悲观了吗? AGI还未来,但人工智能的发展已经让许多人感到惶恐不安。 近来的研究发现足以证明,AI可以被一些人支配用在不轨之处,比如制造武器。 就连马斯克此前曾说过,不受控制的人工智能可能比核武器更危险。 还有物理学家霍金曾也表达过同样意思的话,「完备人工智能的发展可能导致人类灭亡。」 AI生化武器:4万种 2022年3月,研究人员发现,人工智能在短短6个小时内发明了4万种可能的新型化学武器。 一个特别要
Stop Autonomous Weapons(停止自主武器)组织近日在youtubee上发布了一个短片,强调了自主武器的危险性。短片旨在通过民众说服各国停止研发自主武器,并签订自主武器的公约。 S
最近,韩国科学技术院大学(KAIST)因为与军工企业“韩华 Systems”合作研发自主武器,遭到来自全球20多个国家的50多名AI学者联名抵制,其中就包括南京大学计算机系主任、人工智能学院院长周志华教授。 昨天,周志华教授接受了新智元采访,他认为,KAIST的做法,其危险之处在于让机器自己去决定是否进行对人类的毁灭性打击,就像公开信中所说的:如果这样的武器开发出来,自主武器将导致战争的第三次革命,战争将比以往任何时候都更容易发生并且更残忍。 同时,周志华教授还认为,迄今为止主流人工智能领域的研究,都
木易 发自 凹非寺 量子位 报道 | 公众号 QbitAI 通过卫星对机枪进行遥控,加之AI的人脸识别锁定目标,便可以杀人于精确、隐秘且无形。 没错,这就是11月27日发生在伊朗阿布沙德镇上,真实的一幕。 据外媒BBC报道,被杀害的是一名伊朗核科学家。而伊朗革命卫队副司令最新曝出的消息,这名科学家是死于: AI+卫星遥控机枪。 细思恐极,这究竟是如何做到的? 就让我们通过这则最新消息,来详细了解一下。 AI+卫星遥控机枪 与早先伊朗国防部所说的死因(发生枪战)不同,伊朗最高国家安全委员会主席表示:这是一
---- 新智元报道 编辑:LRS 【新智元导读】AI会造毒的话,人类怎么打赢这场生化战?科学家最近发现AI模型6小时就能生成四万种毒性化学分子,甚至有的毒性比VX神经毒剂还强! 新冠疫情肆虐全球两年多的时间里,给人类社会带来了巨大的经济损失,也有人猜测病毒的来源是否为实验室泄漏。 如果说AI模型也能创造出生化武器,那以AI预测的效率来看,人类真能抵御住吗? 最近一个药物发现公司Collaborations Pharmaceuticals的研究人员在《Nature机器智能》上发表了一篇报告,他们
作者 | 阿司匹林 近日,包括 Toby Walsh、周志华、Yoshua Bengio、Geoffrey Hinton 等在内的 50 多位人工智能领域的专家发起联名抗议,抵制韩国科学技术高级研究院 KAIST 开发“杀人机器人”。 昨日晚间,周志华教授在微博上表示,已经收到韩国科学技术高级研究院 KAIST 方面的回复: KAIST 校长 S-C Shin 给每位抗议专家写信保证 KAIST 不会开展任何与人类尊严对立的研究。不会参与发展致命性自主武器系统。与H公司的合作将不涉及任何致命性自主武器系
AI灭世主义者早就迷失在一种伪装成贝叶斯分析的宗教当中。这是Oxide公司CTO在接受TNS采访时说的。
蔡雄山 腾讯研究院法律研究中心副主任、首席研究员 曹建峰 腾讯研究院法律研究中心研究员 巴洁如 腾讯研究院法律研究中心高级研究员 孙 那 腾讯研究院法律研究中心研究员 李金磊 腾讯研究院法律研究中心助理研究员 不经意间,人工智能(AI)成为2016年主流话题之一。有关技术进步的报道,充斥着媒体。AI将深刻影响生活、社会、经济、法律、政治、全球格局等诸多方面。AI应用的拓展和加深,使得AI伦理问题日益突出,成为关注焦点。 美国、英国等开始重视AI伦理问题。今
杀人机器人是无法制止的。 最近,一段可怕的视频在各大平台上疯狂传开:一群神似《黑镜III》中机器杀人蜂的小型机器人,通过人脸定位瞬间杀死了正在上课的一众学生,场面血腥: 这段视频是在日内瓦举办的联合国特定常规武器公约会议上发布的,在会议上,演讲者向大家演示了这款恐怖的小型机器人:只有手掌心大小的机器人携带了3克炸药,并且对目标对象一击即中,直接、精准穿透人脑的关键部位: 其中,演讲者手持的这款名为Stinger的机器人是杀人机器人的一种,而杀人机器人存在于各国现在的军备武器中。 神秘的杀人机器人军备竞赛已经
大数据文摘字幕组作品 上周,在日内瓦举办的联合国特定常规武器公约会议上,一段可怕的视频公诸于众:视频中,一群神似《黑镜III》中机器杀人蜂的小型机器人,通过人脸定位瞬间杀死了正在上课的一众学生,场面血腥。 伯克利大学教授、资深AI研究者Stuart Russell在视频的最后提醒人们,想象一下,这些致命的自动武器一旦落入恐怖分子之手,可能造成怎样的后果。 先来看看视频里几个可怕的画面: 一个体型类似蜜蜂的小型机器人飞入会场并轻易躲过演讲人抓捕,其拥有 anti-sniper 技术,完全基于 AI。 这个小东
---- 新智元报道 编辑:拉燕 【新智元导读】ChaosGPT是个什么玩意? 如今ChatGPT的火爆早已不是新闻。 甚至,在很短的时间内,人们口中流行的话题又火速变成了GPT4,和搭载了GPT4的Copilot。 有关AI对人们生活的影响的讨论沸沸扬扬。讨论的焦点主要集中在AI会代替多少人类岗位,AI会不会在未来毁灭人类,以及AI的未来发展等等。 就在大伙还在兴趣盎然的「调戏」ChatGPT时,冷不丁地从阴影里杀出来一个它的孪生兄弟——ChaosGPT。 Chaos!!! 所谓ChaosGPT
在这个月,备受争议的五角大楼项目Maven引发了辞职和抗议,谷歌表示将制定一项道德政策,以指导其参与军事项目。根据《纽约时报》的报道,这项规定将明确禁止在武器装备中使用人工智能。
作为斯坦福大学副教授和该学院人工智能实验室主任,李飞飞请假去谷歌工作。根据网上发布的材料,李飞飞将在今年下半年返回学校。
AI在未来战争中的应用将会非常广泛,其潜力巨大,可能会深刻改变战争的基本形态、作战方式和制胜机理。
安妮 编译整理 量子位 出品 | 公众号 QbitAI 轰轰烈烈的“谷歌员工抵制与军方合作”事件即将尘埃落定。最终,还是打出反对牌的谷歌员工赢了。 这件事情并不复杂:谷歌与美国国防部合作开发军用无人机
---- 新智元报道 来源:网络 编辑:David、小咸鱼 【新智元导读】在上周的美国陆军协会(AUSA)年会上,Ghost Robotics 展出了灵活而动态的四足机器人 Vision 60,并配备名为「SPUR」的专用枪械,30倍变焦,射程高达1200米。这些配置及上述系统都是一家名为 SWORD International 的公司定制的。 AI机器人,终究难逃被武器化的命运。 上周,美国陆军协会2021年年会召开。会上,一款机器人武器正式亮相。这款机器人名为「Vision 60」,由Ghos
新智元报道 来源:综合NYT、Gizmodo、Wired等 编辑:克雷格、肖琴 【新智元导读】谷歌与五角大楼Maven项目合作的项目价值仅900万美元,但在内部引发了一场大讨论,媒体报道谷歌最近正
本文介绍了俄罗斯推进“杀人机器人”计划,引发广泛关注和争议。文章指出,自主武器系统在战争中的使用将导致混乱和破坏,同时也会带来道德和伦理问题。俄罗斯方面表示,全面禁止使用自主武器系统是不合理的,因为这将阻碍科技公司开发有益于人类的民用AI系统。因此,禁止使用自主武器系统在战争中使用是不现实的。
作者:全月 【新智元导读】11月,在日内瓦举办的联合国特定常规武器公约会议上,一段骇人听闻的视频发布,视频中类似杀人蜂的小型人工智能机器人通过面部识别系统辨别射杀对象,迅敏将其击毙。尽管只是一个演示,但这款“杀人机器人”迅速引发广泛关注。同时,为了督促各国政府制定监管而展示的这段视频,似乎并没有在俄罗斯那里取得成效,俄罗斯对联合国提议的禁止致命自主武器系统(LAWS)采取强硬态度,表示无论如何都会造成杀人的僵尸。 上个月,联合国在特定常规武器公约会议上发布了一段“杀人机器人”视频,强烈呼吁AI技术巨大的危害
就在今天,美媒 SFGATE 刊发报道称,李飞飞将在未来几个月内离职Google。
这已经是第五次在瑞士日内瓦讨论这个致命自主武器系统的议题。也正巧是「阻止杀人机器人战役」组织(Campaign to Stop Killer Robots)成立的第五个年头。
当今世界上最著名的物理学家史蒂芬·霍金近日撰文警告人工智能(AI),其表示人工智能将是“人类历史上最重要的事件”,同时也将是“最后的事件”。 在英国《独立报》发表的专栏文章中,霍金和其他科学家们认为,忽视人工智能的危险可能是“人类历史上最严重的错误”,而且没有对可能包含的风险进行充分的研究。 文章列举了几种人工智能领域的成就,包括无人驾驶汽车,Siri和赢得“Jeopardy”的计算机。然而,“类似的成就在未来几十年其将带来的后果面前可能会显得很苍白。” 科学家们继续表示,“潜在益处是巨大的,文明提供的一切
在经历了数个月的风波之后,在数千员工发起联名抗议之后,在学界大牛纷纷联署反对之后,在各大媒体深入曝光内幕之后,Google终于调整了自己政策。
两三年前,开始接触AI和安全的交叉领域,彼时市面上相关资料良莠不齐,所以花费了大量的时间在琢磨,逐渐打磨出AI-for-Security-Learning的github仓库,旨在总结安全场景、基于AI的安全算法和安全数据分析相关的应用,持续思考,保持对业界技术的跟进和迭代。当时还在城外,看见工业界的实践很少,准确地说,可实际落地产生价值的工业级实践很少,一度认为AI for Security是鸡肋。
今年 1 月,谷歌 CEO Sundar Pichai 曾表示人工智能的影响会比电力「更深刻」。他遵循谷歌领导者的悠久传统,称其技术是变革性且美妙的。
前段时间,谷歌前 CEO 埃里克 · 施密特与亨利 · 基辛格联合发表了一本名为《The Age of AI: And Our Human Future》的新书,书中警告称,AI 系统的危险性正在迅速增加。
《荣耀之海》是西山居自主研发的新一代多人在线战术竞技游戏。游戏主打时下最火热的「吃鸡」玩法,百名玩家通过海上与陆上的大逃杀决出胜者。
美国在AI方面的国防支出没有显示放缓的迹象。DARPA预计在未来五年内将花费20亿美元用于军事AI项目。五角大楼备受争议的Maven项目,利用机器学习来检测和分类无人机镜头中感兴趣的物体,最近在今年的717亿美元国防授权法案中获得了580%的资金增长。
领取专属 10元无门槛券
手把手带您无忧上云