前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【卫报】算法如何影响我们的生活

【卫报】算法如何影响我们的生活

作者头像
新智元
发布2018-03-23 15:18:09
1.2K0
发布2018-03-23 15:18:09
举报
文章被收录于专栏:新智元新智元

【新智元导读】应聘某一岗位没被录用?原因可以有很多:个人职业期望与岗位不符;能力尚未达标。但你是否想过,你被拒绝的理由竟是性格测试没通过!算法正在影响我们的工作和生活,其规模、重要程度,隐秘性,使得这种影响不再普通。不仅如此,算法出错了还不好伸冤,而且研究显示,算法对穷人有歧视。

Cathy O'Neil 是约翰逊实验室高级数据科学家、哈佛大学数学博士、麻省理工学院数学系博士后、巴纳德学院教授,曾发表过大量算术代数几何方面的论文。他曾在著名的全球投资管理公司D.E. Shaw担任对冲基金金融师,后加入专门评估银行和对冲基金风险的软件公司 RiskMetrics。

几年前,一个叫Kyle Behm的年轻人由于躁郁症中途辍学,离开他就读的范德比尔特大学,该学校位于田纳西州纳什维尔。一年半后,Kyle康复了,并回到另一所大学继续他的学业。在那时,他从一个朋友那儿了解到一份兼职工作:在Kroger超市打工,尽管工资相当低,但Kyle愿意做。Kyle的朋友正好辞职,并愿意为他做担保。对于像Kyle这样学习优异的学生来说,担保就是走走形式。

然而Kyle并没有接到面试通知。他询问他的朋友,他的朋友解释说:Kyle的性格测试结果显示,他被列入“红灯区”。Kyle做的测试是由总部位于波士顿的人力资源管理公司Kronos开发,作为人力选拔员工的一部分。Kyle把这件事情告诉了他的律师父亲,他的父亲问他测试题问了些什么。Kyle说和他在医院里做的题类似,就是“五因素模型”这类的问题。根据外向性,随和性,谨慎性,情绪稳定性以及开放性评分。

起初,由于测试题丢掉一份工资低廉的工作并不是什么大问题。Roland Behm鼓励他的儿子继续找。但Kyle被一次次拒绝。他应聘的每一家公司用的是同一套测试题,到最后他也没收到一个offer。

Roland Behm也不知所措。心理健康问题似乎严重影响他儿子的就业。研究之后他发现:性格测试题在大型的招聘公司之间非常普遍,尽管在法律上并无实际意义。他解释说:很少有人找工作因为测试结果被列入红灯区。即便他们被“红灯”了,他们也不会想着去找律师。

Behm给包括Home Depot和Walgreens在内的七家公司发了通知,倡议通过集体诉讼来抵制测试招人的违法行为。在我写这篇文章的时候,起诉讼仍在跟进。此次争议主要在于Kronos的测试是否有医学依据;另依据1990年颁布的美国残疾人法案,该行为是违法的。如果诉讼成功,法院不得不就招聘公司或Knoros是否违反美国残疾人法做出判决。

然而,问题不再是这些公司是否需要担责这么简单,基于复杂数学公式的自动化系统在发达国家逐渐普遍。其规模、重要程度,隐秘性,使得算法把一个人普通的生活变得不再普通。

大可不必这样。金融危机后,数学家们所谓的“魔法公式”再一次带来房贷危机,导致一些重要的金融机构倒闭。如果足够理智,我们完全能够阻止类似事件再次发生。可事实却是,新科学技术大热,甚至拓展到更多领域。他们不仅关注全球经济市场,还关注人类。数学家和统计学家正在研究人类的欲望,行为和消费模式。他们预测我们的诚实度,计算我们成为学生,工人,情人,罪犯的可能性。

这是大数据经济,寻求利益最大化。一个计算机程序可以在数千份简历或申请表中运行,获得一份简单明了的表单,最佳候选人位于表单首行。既省时又公正客观。不受人类偏见的影响,就是机器编译代码。2010年左右,数学已经渗透到人类的生活中,受到一众人的青睐。

大多数算法被应用在好的方面。目的是用客观测量代替主观判断——也可能是找出学校里教学最差的教师,或预测一个罪犯二次进监狱的概率有多大。

算法的解决方案主要针对真正存在的问题。一个学校的校长不能总是针对问题老师,因为他们也是朋友。法官是人,是人就会有偏见,有偏见就会导致他们无法做到完全公平。举个例子,午餐前法官们会感到饥饿,饥饿会让他们的判决比平时更苛刻。所以加强人机的一致性十分重要,尤其是当你觉得新系统听起来尚且科学。

难的是最后一部分。只有少数的算法和评分系统经过严格的科学检测,而且我们有充分的理由怀疑他们无法通过测试。举个例子,自动化教师的测评每年都可能不同。蒂姆·克里夫在纽约当了26年的中学英语教师,却从未改变过自己的教学风格。当然,如果分数不重要,那是一回事。但事实却是教师往往都被解雇了。

除了法官的裁决,我们有其他的理由担忧被告被判决有罪。将数据注入算法。其他类型的输入往往也会出现问题,而且更麻烦。一些法官甚至会询问被告家里是否有人有前科,这明显有失公平。

不仅如此,如果你的信用评分较低或无任何不良驾驶记录,你可以用算法决定交多少保险;或者关于贷款条款我们会收到哪类政治信息,我们都会用到算法。算法可以预测天气,然后决定人们的工作行程,减少他们送孩子去医院或者学校可能浪费的时间。

其受欢迎程度依赖于它们是客观的概念,而算法影响数据经济基于人类会犯错误。尽管他们被用在好的事情上,算法还是会把人们的偏见,误解编译到自动化系统里影响我们的生活。就像上帝一样,这些数学模式并不透明,他们的工作原理仅对数学家和计算机科学家可见。判决即使错了也不容争议。往往穷人被惩罚压迫,富人越来越富。

撇开公平性和合法性的问题,研究表明,性格测试并不能很好的预测一个人的工作表现。Roland Behm表示:测试的最初目的并不是招聘好员工,就是为了尽可能多的筛掉人。

你可能认为性格测试很好做。其中一个问题是:“经常会有情绪的波动?”你应该回答“不会”。另一个问题“很容易生气?”你也要回答“不会”。

事实上,企业通过这种方式筛选求职者也会遇到麻烦。监管机构发现,CVS连锁药店通过性格测试要求人们回答诸如“人们做哪些事让你愤怒”,“有亲密的朋友没有任何用;他们总是让你失望”等问题,非法筛选出有心理疾病的应聘者。

Kroger的问题更简单一些:哪一个形容词更能描述你工作时的状态:独一无二还是井井有条?如果回答独一无二,说明你高度开放,自恋;如果你回答井井有条,说明你自觉,自我控制能力强。

想象一下:Kyle Behm被roger拒绝后到麦当劳工作。他成为星级雇员。在厨房管理四个月,一年后拿到整个分店的专营权。这个时候,Kroger会不会有人重新审视当年的性格测试错的离谱。

幸运的是,广大求职者并未因自动化系统被拒绝。但他们依旧面临者简历被筛掉或者面试等挑战。这些问题一直困扰着少数族裔和妇女。

规避这种偏见的理想方法就是不对申请人上纲上线。20世纪70年代,音乐家只要以男性为主。当种族,名望不再重要时,女性音乐家开始出现,虽然仅占总数的四分之一。

求职者一定要让面试官对自己的简历过目不忘。做到简洁有针对性。简历中可以包括之前从事的职位(销售经理,软件构架师),语言(普通话,Java),或者荣誉(成绩优异)。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2016-09-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档