首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

马斯克等116名AI大佬紧急上书联合国,呼吁不要打开“机器人武器”的潘多拉魔盒

大数据文摘作品,转载要求见文末 编译 | 宁云州、钱天培、杨捷 日前,在世界最大的人工智能会议之一的IJCAI 2017上,116名世界领先的机器人和人工智能公司的领导人联名发布了一封公开信,敦促联合国紧急处理可致命自动武器(通常称为“杀手机器人”),并禁止它们在国际上使用。 116位AI和机器人界大佬联名呼吁禁止“杀手机器人” 随着人工智能的发展,计算机开始在各个领域上渐渐超过人类,近些年更是在围棋甚至Dota2上也超越了人类,而作为AI特殊的应用领域之一,自动武器系统的危险性不言而喻,如果被别有用心之人

04

这个AI杀手真的很冷!人脸识别+空间定位即可秒杀所有人

杀人机器人是无法制止的。 最近,一段可怕的视频在各大平台上疯狂传开:一群神似《黑镜III》中机器杀人蜂的小型机器人,通过人脸定位瞬间杀死了正在上课的一众学生,场面血腥: 这段视频是在日内瓦举办的联合国特定常规武器公约会议上发布的,在会议上,演讲者向大家演示了这款恐怖的小型机器人:只有手掌心大小的机器人携带了3克炸药,并且对目标对象一击即中,直接、精准穿透人脑的关键部位: 其中,演讲者手持的这款名为Stinger的机器人是杀人机器人的一种,而杀人机器人存在于各国现在的军备武器中。 神秘的杀人机器人军备竞赛已经

00

【杀人机器人一击毙命】俄罗斯不顾联合国禁令强势推进军用机器人计划(视频)

作者:全月 【新智元导读】11月,在日内瓦举办的联合国特定常规武器公约会议上,一段骇人听闻的视频发布,视频中类似杀人蜂的小型人工智能机器人通过面部识别系统辨别射杀对象,迅敏将其击毙。尽管只是一个演示,但这款“杀人机器人”迅速引发广泛关注。同时,为了督促各国政府制定监管而展示的这段视频,似乎并没有在俄罗斯那里取得成效,俄罗斯对联合国提议的禁止致命自主武器系统(LAWS)采取强硬态度,表示无论如何都会造成杀人的僵尸。 上个月,联合国在特定常规武器公约会议上发布了一段“杀人机器人”视频,强烈呼吁AI技术巨大的危害

06

史蒂芬·霍金:忽视人工智能的危险或是致命错误

当今世界上最著名的物理学家史蒂芬·霍金近日撰文警告人工智能(AI),其表示人工智能将是“人类历史上最重要的事件”,同时也将是“最后的事件”。 在英国《独立报》发表的专栏文章中,霍金和其他科学家们认为,忽视人工智能的危险可能是“人类历史上最严重的错误”,而且没有对可能包含的风险进行充分的研究。 文章列举了几种人工智能领域的成就,包括无人驾驶汽车,Siri和赢得“Jeopardy”的计算机。然而,“类似的成就在未来几十年其将带来的后果面前可能会显得很苍白。” 科学家们继续表示,“潜在益处是巨大的,文明提供的一切

011
领券