了解这个问题,首先还是要明白人是如何分清楚人脸的?人工智能最根本的逻辑还是学习人类的行为……
人是如何分清楚人脸的?
人类视觉能分清人脸,这与大脑中一个叫梭状回(fusiform gyrus)的区域有关。当人眼接收到视觉信号后,在后脑的枕叶区进行处理,把人脸区域识别出来,再送入一个称为梭状回的特殊脑区,完成面孔辨识。(50毫秒内捕捉整体轮廓,1秒即可识别人脸)
这种能力是进化结果,帮助我们在社交中识别朋友、敌人或亲人。研究表明,婴幼儿具有很强的面孔分辨能力,6个月大的婴儿不仅可以对不同种族的人脸进行有效识别,甚至可以识别不同猴子的脸。成年以后,我们的识别系统变得更有针对性,仅能识别自己同种族的人,对其他种族的面孔不再敏感,这一现象称为“异族效应”
如果人的梭状回视觉区天生较弱或受过损伤,有可能分辨不出人脸,俗称“脸盲症”。严重的脸盲症患者可能连自己亲人的脸都分不清,只能靠发型、身材、衣着来判断。
备注:人类的视觉也是有盲区的,且很多时候我们看到的不一定是真的,最简单的例子就是乌鸦的颜色?
现实生活中还有一种奇怪的现象,人们喜欢把日常看到的事物想象成一个人脸。比如:在爬山时候看到一个奇异的山峰,就会容易想象成人脸的形状。这个研究也很有趣,时间关系在此不做阐述,有兴趣后期可以深入讨论一下……
机器是如何分清楚人脸的?
机器能分清楚人脸,核心就是依赖于人脸识别技术。这种技术是一种基于人工智能和图像处理的生物识别技术,它通过分析数字图像或视频帧中的人脸,提取面部特征(如眼睛间距、鼻子形状、脸部轮廓)并与数据库中的面孔进行匹配,以确认身份。
通过上面的解释,我们了解到人类的视觉系统通过进化和特殊的神经单元和处理器可以轻松地从一张图片中发现验部轮廓及五官部件。而计算机则不同,它看到的图像不是一个整体画面,而是一个个感光点,每个感光点称为一个像素。这些像素整体上具有人脸的轮廓,但如果只观察某一部分区域,就会发现其中的像素毫无意义。
为解决这一问题,早期人脸识别的研究重点是如何从原始图像中提取出和人脸相关的有效特征,如五官之间的几何关系、像素的分布规律等。
所以早期(20世纪80年代左右)是通过特征脸标注的方式实现人脸识别,但是在大规模场景中很难得到应用。
人脸识别技术主要的工作原理
人脸检测:计算机首先需要在图像或视频中找到人脸的位置。这通过识别面部特征如眼睛、鼻子和嘴巴实现。研究显示,系统使用计算机视觉技术,能检测出正面和侧面脸部轮廓,处理单张图像、视频序列或多摄像头视图;
面部特征提取:一旦检测到人脸,系统会分析面部特征,提取出独特的面部特征点,比如眼睛之间的距离、鼻子的形状、下巴的轮廓等。这些特征点形成一张“面部特征图”或“面部地图”,每个人的“面部地图”都是独特的。
特征比较:提取的面部特征图会被与数据库中的已知面部特征图进行比较。通过计算相似度,系统可以判断是否找到匹配。
身份确认:如果相似度超过某个阈值,系统会确认这是已知的人员;否则,它可能标记为未知或需要进一步验证
现代人脸识别技术依赖于人工智能、卷积神经网络等,特别是深度学习。研究显示,深度学习通过人工神经网络处理数据,允许计算机从大量面部照片中学习,识别出面部特征的模式,从而提高识别准确率和速度。
深度学习(Deep Learning)是一种机器学习(Machine Learning)的子领域,专注于使用多层神经网络(称为深度神经网络)来模拟人类大脑的复杂决策能力。这些神经网络由人工神经元组成,层层堆叠,每层负责处理和转换数据,最终输出结果。它模仿人类神经过程,通过消化和分析大量训练数据,每次迭代都提高准确性,类似于人类学习。
值得大家警示的是,视频伪造技术越来越强大,通过合成目标人的视频来骗过验证系统已不是难事。
另外,基于对抗样本的仿冒攻击带来的风险正在上升。卡耐基梅隆大学的研究团队在2016年开发了一种眼镜,框架上印刷了特殊图案。这种眼镜眼镜上的图案会改变人脸图像的像素信息,扰乱软件的计算。研究显示,这种方法利用了人脸识别系统依赖像素分析的弱点,而不是像人类那样识别面部特征。
检测各种仿冒行为对当前的人脸识别技术来说是一个巨大的挑战。同时,隐私泄露和数据滥用等潜在风险也是在应用人脸识别技术时必须考虑的问题。
领取专属 10元无门槛券
私享最新 技术干货