CVPR 2018:剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力


新智元报道

来源:theregister.co.uk

编辑:肖琴

【新智元导读】来自英国剑桥大学、印度国家技术研究院和印度科学理工学院的研究人员研发了一种利用无人机的“暴力行为”检测系统,能够识别人群中踢打、刺伤或掐脖子等暴力动作,准确率达到85%以上。研究人员称,该系统可用于在马拉松和音乐节等户外活动中通过无人机自动发现暴力事件。研究论文已被CVPR 2018接受。

一种无人机监控系统,可以实时地在人群中监测到“暴力分子”。这种技术已经被开发出来了。

这种AI技术利用悬停式四轴飞行器上的摄像头来检测每个人的身体动作。然后,当系统识别出攻击性的行为,如拳打、脚踢、刺杀、射击、掐脖子等时,它就会发出警报,准确率达到85%。它不识别人脸——只是监测人们之间可能的暴力行为。

该系统的设计者分别来自英国剑桥大学、印度国家技术研究院和印度科学理工学院。研究者说,这个系统可以扩展到自动识别非法越境的人,在公共场所发现绑架事件,并在发现暴力行为时发出警报。他们希望这样的自主间谍无人机可以帮助警察压制犯罪,或帮助士兵在无辜群众中找出敌人。

“执法机构已经在使用空中监视系统来监视大面积的区域,”研究人员在他们的论文中写道,“各国政府最近在战区部署无人机来监测敌人的行动,监视外国贩毒组织,开展边境管制行动以及在城市和农村地区监控犯罪活动。”论文中详细介绍了这项技术,已被CVPR 2018接受。

“他们一般安排一名或多名士兵长时间地操控这些无人机,这使得这些系统容易因人为疲劳而出错。”

可用于检测公共区域或大型聚会中的暴力分子姿态估计pipeline

研究者提出的新模型分两步工作。首先,特征金字塔网络(一种卷积神经网络)从无人机拍摄的画面中检测到个人。然后,使用一个ScatterNet网络来分析和确定图像中每个人的姿势。

身体的轮廓被分解为14个关键点

模型将身体的轮廓分解为14个关键点,计算出一个人的手臂、腿和脸的位置,以识别训练过程中指定的不同类型的暴力行为。

下面的视频演示了系统如何工作:

视频内容

该系统使用研究人员编制的“Aerial Violent Individual”数据集来训练。有25个人被召集来演示打斗、刺杀、射击、踢打和掐脖子等动作,得到2000张带注释的图像。每张图片上一般有2到10个人,因此,这个系统现在还不能用于处理非常大的人群。

AVI数据集中的暴力行为,包括掐脖子,拳打,脚踢,射击和刺杀

当系统需要处理的人数更少时,准确率最高。比如一张图片上只有一个人,系统的准确率为94.1%,但有5个人时,准确率就降到了84%,10个人时准确率降到79.8%。该论文的合作者Amarjot Singh说:“准确性下降主要是因为系统没有检测到其中的一些人。”

检测不同暴力行为的准确率

检测不同人数时的准确率

很难判断这个无人机系统到底有多准确,因为它还没有在真实环境下对普通人群进行测试——测试者仅仅是研究团队招募来的志愿者。也就是说,它是用假装相互打斗的数据训练的,测试也是同样。而且,它是一个研究项目,还不是商业产品。

左图展示了在人体上注释的14个身体关键点。 右图展示了Parrot AR 无人机捕获数据集中的图像以及几个注释关键点的特写。

当无人机在2米、4米、6米和8米高处时,输入系统的图像也被记录下来。这就能知道它离人群有多近。考虑到无人机飞行的声音很大,在真正的人群和斗殴行为中,这些无人机会在几百英尺之外,一定程度上降低了能见度。

图:仅使用无人机在2m(第1排),4m(第2排),6m(第3排)和8m(第4排)四个不同高度记录的仅有一个暴力分子的无人机监视系统(DSS)

实时视频分析是使用两个Nvidia Tesla GPU实时地在Amazon的云服务上进行的,而无人机的内置硬件可以指挥其飞行动作。该技术是在本地机器上使用单个Tesla GPU进行训练的。

“该系统以每秒5帧到16帧的速度在空中实时拍摄的影像中检测到暴力分子,最多检测10人,最少2人。”论文指出。

争议:技术被恶意使用的风险

在云端执行推理有潜在的安全和隐私风险,因为要将人们的视频传输到第三方计算系统中。为了减少法律上的麻烦,训练好的神经网络处理无人机在云中接收到的每帧图像,在处理完后就将图像删除。

“这增加了数据安全层,因为我们只是在需要的时候才把数据保存在云上,”剑桥大学博士生Singh说。

使用AI进行监视很令人关注。类似的面部识别技术,如亚马逊的Rekognition服务,已经被美国警方采用。这些系统经常受到高误报率的困扰,或者根本就不准确,所以像这样的技术要和无人机结合还需要一段时间。

有趣的是,谷歌和Facebook最近也发表了一些研究,表明神经网络可以用来跟踪姿势,专家们也对神经网络如何用于数字监视或军事目的提出了担忧。现在,无人机监测暴力分子的研究证明了这是可能的。

研究人员使用 Parrot AR无人机(价格相当便宜)进行实验。运行也很便宜。这个实验在亚马逊的平台上运行,每小时花费0.1美元,所以系统经过训练后的运行不会太贵。

Singh承认,“人们可能会把这个系统用于恶意应用程序,但训练这样的系统将需要大量的数据和大量的资源。我希望有一些监督能够避免滥用这种技术。”

但他认为业余爱好者为了恶意的原因重新编程无人机的担忧是没有根据的。 “购买无人机确实很容易,但设计一种能够识别暴力个体的算法需要一定的专业知识,涉及设计不易获得的深层系统,我不认为这些系统很容易实现,”他说。

研究人员计划在两个音乐节期间在真实环境中测试他们的系统,并监测印度的国界。 如果表现良好,他们希望未来将其商业化。


原文发布于微信公众号 - 新智元(AI_era)

原文发表时间:2018-06-07

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

3 条评论
登录 后参与评论

相关文章

来自专栏镁客网

机器人也会造假、有偏见?原因在这

972
来自专栏量子位

香港科技大学教授冯雁:How to Build Empathetic Machines

主讲人:冯雁 | 香港科技大学 屈鑫 整理编辑 量子位 出品 | 公众号 QbitAI 本文为冯雁教授8月18日于北京创新工场的分享实录整理,分享主题为《How...

2696
来自专栏新智元

机器学习先驱 Michael I. Jordan 清华演讲:更好的分布式机器学习(PPT)

【新智元导读】今天,机器学习诸多理论的主要奠基人、美国三院院士 Michael I. Jordan受聘为清华大学访问教授,同时发表主题报告。Jordan认为,大...

4316
来自专栏AI科技评论

学界 | 多伦多大学开发反人脸识别系统,识别成功率降至0.5%

“刷脸”,作为一种个人身份鉴别技术,这些年在图像处理、深度学习等技术的护持下精度大幅提升,在LFW上,各大玩家在无限制条件下人脸验证测试(unrestricte...

721
来自专栏新智元

翻译们,颤抖吧!三年内你很可能被AI砸了饭碗!

人工智能和机器学习可以做很多事,完成许多任务,有些事任务AI很擅长,有些则没那么擅长,目前的趋势表明,翻译就属于AI非常擅长的那种任务。

703
来自专栏人工智能头条

深度学习:生成艺术的新范式与版权的烦恼

871
来自专栏机器之心

专栏 | 田渊栋:第一届FLAIR感想

3399
来自专栏机器之心

谁来治好AI的「幻觉」?面对众多对抗样本攻击,深度神经网络该何去何从

选自Wired 作者:Tom Simonite 机器之心编译 参与:路雪、黄小天 2 月 3 日,来自 MIT、UC Berkeley 的 Athalye 等人...

3396
来自专栏大数据文摘

语言处理想突破,三座大山必须过

如果是人类来回答这个问题,即使在情景不明确的情况下也能在快速澄清后给出回答,但对机器来说,除非依赖大量人为制定的规则,回答这样的问题难度堪比“哥德巴赫猜想”。

341
来自专栏AI科技评论

犹他大学计算机系终身教授承恒达:人工智能中不确定性的研究 | CCF-GAIR 2018

AI 科技评论按:2018 全球人工智能与机器人峰会(CCF-GAIR)在深圳召开,峰会由中国计算机学会(CCF)主办,雷锋网、香港中文大学(深圳)承办,得到了...

731

扫码关注云+社区