前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >不要学人类以貌取人,AI须远离伪科学

不要学人类以貌取人,AI须远离伪科学

作者头像
AI科技大本营
发布2018-04-27 13:27:11
9030
发布2018-04-27 13:27:11
举报

光明的另一面,是黑暗。

就在人工智能为人们打开一扇无比美好的天窗时,阳光的照射,让屋子的背光面,蒙上一层阴影。

而这层阴影的始作俑者,可能并非名目张胆恐怖分子、孤注一掷的邪恶国家、老谋深算的恶毒黑客……而是,普通人。

是你,也是我。

因为人工智能足够神秘,即使我们已经使用着它,却摸不着这个黑匣子里到底藏着什么奥秘。

而正是因为不懂,解释不了,才为普通人打开了一条滥用和曲解的邪路。

其实,每每有新科技新事物的诞生,背后都有着普通人滥用科学导致的灾难性后果。纵观人类历史,比比皆是。

而如今,这条滥用之船,开到人工智能的渡口了。

也许,你不信。

让我们先看一段关于纳粹医生恩斯特·鲁丁的故事吧。

纳粹医生的曲解

20世纪初,进化论和遗传学作为新生的科学力量,开始影响人们对世界的理解。

作为精神病遗传学上的先驱,恩斯特·鲁丁十分担忧德意志民族会变得过于“驯化”,以致于退化出高发性的精神疾病。

1916年,他用一篇颇具影响力的论文,来论证精神疾病对于种族的潜在灾难。据此,鲁丁开始主张,这些患者都不应生育后代,以保证德意志人未来的竞争力。

这一主张很快演变成政治行动,鲁丁的大力背书,使得科学逻辑被用来放大社会达尔文主义、种族优生的谬误,进而沦为纳粹鼓吹种族灭绝的帮凶:

雅利安人(德意志先祖)是对人类进步唯一有贡献的民族,有权奴役甚至消灭所有的“劣等种族”。

在遗传物质都不确定、遗传机制都没搞清的年代,普通人更是无从区分那假借科学所编织的谎言。

从打标签式的社会歧视,到法律层面的权利迫害,犹太人就这样一点一点变得“不适合处在德国的社会中”,一步一步被驱赶进纳粹的集中营和灭绝营,并被执行“最终解决方案”。

从犹太人大屠杀的历史灾难来看学术谬误,当一个社会系统系曲解并误用科学力量时,其后果比一两个恐怖分子的极端行为严重得多。

愈是面对我们所不理解的力量,人们的反应就愈加激烈。解释进化论、遗传学时如此,接纳人工智能时更会如此。

这就是为什么社会、法律系统在采用人工智能时,要尤其慎重。

不管是什么算法,不依据罪行的事实判决,而主观把一个群体标记为罪犯的做法,在逻辑上跟纳粹的种族灭绝没有本质的不同。

因而,对于人工智能影响社会的方式,如果我们不加以重视,它就有可能以纳粹的逻辑来为社会划分标签……事实上,已经有不少人工智能的创业公司或研究团队在这样做了。

“面相学”的谬误

认识到政府部门热衷于“通过封面判断一本书”,以色列创业公司 Faception 推出了专门的人工智能引擎,从脸部图像中识别“高智商”、“白领罪犯”、“恋童癖者”和“恐怖主义者”:

“Faception首先推出专有的计算机视觉和机器学习技术,用于对人员进行分析,并仅基于他们的面部特征来揭示他们的个性,这在技术和市场两方面都是首创。”

但问题在于,仅以面部特征来分析人们的个性,在科学上是站不住脚的,这跟古老而又迷信的“面相学”没有差别。

1933年,纳粹的“种族科学家”同样会用“科学的工具”来做容貌测量:

而到1938年,“面相学”的谬误甚至堂而皇之地进入学校教科书:

“正如通常很难区分可食用的蘑菇和毒蘑菇,一般很难认识到犹太人是骗子和罪犯[...]如何区分犹太人:犹太人的鼻子弯曲,看起来像数字 6 [...]“。

不知以这种逻辑,邓布利多教授那弯过多次的鼻子又该作何解读?

这就是为什么那篇题为“利用脸部照片自动推断犯罪性”的研究,能在国内外激起这么大的争议。

难道把纳粹的游标卡尺换成有监督的机器学习,就足以决定一个人是不是罪犯了吗?当社会判决一个人犯罪与否的依据不再是根据罪行,而是基于他的面部特征或外在印象时,这样的做法跟纳粹党徒又有何区分?

论文作者在研究中始终在强调客观、公正、独立性:

“由人类观察者主观判断会导致偏见,而我们是首次在没有任何人为偏见的情况下,研究了根据脸部特征自动推断犯罪分子。”

因而,我们只需了解一下人工智能从“面相学”中学到的东西,这一命题的真伪就不言自明了。

人工智能的偏见

确实,电脑可以根据一个人的照片来分析他的身体特征:先分析模型照片找出规律,然后根据这些规律来读取新的照片,进后得出一些有意义的判断。

比如,确定照片拍摄时间:

这是卷积神经网络 ChronoNet 的功能,它所用的数据是在过去 100 年间拍摄已知的日期的照片,这些照片都带了某种程度的标签(在这种情况下为日期照片),因此获取标记数据用于训练这个网络相对来说比较简单。

一旦网络被训练好,就可以输入照片,可以看出系统猜测拍摄的那一年。 例如,以下两张照片都是 ChronoNet 猜测1951(左)和1971(右),这些都是很好的猜测:

左边的照片在 1950 年在斯德哥尔摩海滨拍摄的,右边的照片则是 1972 年尼克松在亚特兰大州发表竞选演说,旁边是尼克森夫人。

让一位人类专家来判断的话,他可能会从照片的颜色、质感,人物的衣服、发型,以及物品、文字等年代相关的因素,来做出推断。

ChronoNet 的判断机制也是如此,它同样学会了发现各种细微线索:从低级属性,如胶片颗粒和色域到衣服和发型,乃至车型和字体。上面那张斯德哥尔摩照片中的扬声器和婴儿车的风格也可能是线索。

跟 ChronoNet 类似,《使用脸部图像自动推理罪犯》所做的事情,也是从照片中的各种细微线索来做推测。唯一的不同就是,一个是猜测任意照片拍摄的年代,另一个是根据人脸部的图像来判断一个人是否犯罪。

在不涉及个人权利的时候,机器做错了,最多赔款了事;但是把人们判定为罪犯,还记得美队2中“洞察计划”启动时的场景吗?

这样的人工智能一旦启动,或被黑客攻击,瞬间就可以把上百万人标记成罪犯或恐怖分子……而背后的依据,可能仅仅是你长得不友善,或是拍照时的表情不对。

毕竟,面部结构不是纯天生的,而是受成长、环境因素的强大影响,人脸的照片还要取决于拍摄过程中的各项设置。所有这些因素,都在人脸感知过程中发挥着不容忽视的作用。

而把“犯罪”视为某一群人的天性,更与现代文明的精神背道而驰,这样做是在打消人们向善的意愿与社会群体变好的可能。绝大多数犯罪的穷人,他们的许多罪行都是贫穷所致,归根结底是环境的原因,而非人的本质。

许多不同的证据表明,定罪判决会受法官的偏见影响。相对于白人,黑人会被更多地逮捕,更多地被定罪,比犯有同样罪行的白人受到更加严厉处罚。

衡量经济行为可信度的研究表明,仅依靠面部来做出判断,会使我们的决定更不准确。事实证明,在很多情况下,如果忽视面部特征,更多地依靠常识,我们将会做得更好。

“草包族科学”

对于此类行之不通的研究或理论,物理学大师费曼早就抨击过,并称之为“草包族科学”——不是科学的科学。

他提到过那种没有科学品德的研究——那样的研究者太急于获取新的数据,进而赢得更多的资助,好实验能继续下去,结果却毁坏了实验本身的价值。

费曼用二战期间的一个故事来阐释这里的道理:

“大战期间,在南太平洋的一些土著,看到飞机降落在地面,卸下来一包包的好东西,其中一些是送给他们的。后来,他们仍然希望能发生同样的好事,于是他们就在同样的地点铺飞机跑道,两旁还点上了火,盖了间小茅屋,派人坐在那里,头上绑了两块木头(假装是耳机)、插了根竹子(假装是天线),以为这就等于控制塔里的领航员了——然后他们等待……等待飞机的降落。他们被称为草包族,他们每件事都做对了、一切都十分神似,看来跟战时没什么两样;但这行不通——飞机始终没有再落下来。这是为什么我叫这类东西为“草包族科学”,因为它们完全学足了科学研究的外表, 一切都十分神似,但是事实上它们缺乏了最重要的部分——因为飞机始终没有降落下来。”

作为我们尚未完全理解的力量,人工智能不应该被如此草率地曲解和误用。如果背离科学的品德,把研究做成装模作样的“草包族科学”,可能还是我们的幸事;而一旦欺瞒大众发展出“种族灭绝的科学”,我们偏见必将会固化一切不公正的后果。

了解到这里,你是怎样认为的?这样的人工智能真有意义吗?

每日荐文

点击图片查看更多精彩内容

医学人工智能试验的三个阶段

展望人工智能的未来

版权申明:该文章版权归AI100所有,如需转载、摘编、复制等,请后台留言征得同意。若有直接抄袭,AI100将追究其责任。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-05-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技大本营 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档