首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

学界 | 看车识党派:斯坦福大学李飞飞团队发表计算机视觉人口统计新方法

选自Stanford News 机器之心编译 参与:刘晓坤、李泽南 斯坦福大学的研究者们正在使用计算机视觉系统,利用谷歌街景图片上街边汽车的型号来识别给定社区的政治倾向,其识别准确率超过了 80%。这项研究的论文已发表在《美国科学院论文集》上,研究人员表示,新的研究不仅可以节省大量人力开支,也可以为人口统计任务提供前所未有的实时数据。 从奢华的宾利到经济家用的 MPV,再到实用的皮卡,每个美国人驾驶的汽车都或多或少是他们个性的外在表述。就像俗话说的:你就是你所开的汽车,斯坦福大学的研究人员正在把这一思想提升

013

2020腾讯广告算法大赛方案分享(亚军)

本届算法大赛的题目来源于一个重要且有趣的问题。众所周知,像用户年龄和性别这样的人口统计学特征是各类推荐系统的重要输入特征,其中自然也包括了广告平台。这背后的假设是,用户对广告的偏好会随着其年龄和性别的不同而有所区别。许多行业的实践者已经多次验证了这一假设。然而,大多数验证所采用的方式都是以人口统计学属性作为输入来产生推荐结果,然后离线或者在线地对比用与不用这些输入的情况下的推荐性能。本届大赛的题目尝试从另一个方向来验证这个假设,即以用户在广告系统中的交互行为作为输入来预测用户的人口统计学属性。

05

AI招聘揭秘:名字背后的偏见陷阱!可能影响你的职业生涯?

正如我们对人工智能和招聘的调查所报道的那样,现在有一个家庭手工业使用人工智能聊天机器人来面试和筛选潜在的候选人。LinkedIn 可以说是最受求职者和专业人士欢迎的平台,该公司在一篇博客文章中表示,该公司最近推出了一款新的人工智能聊天机器人,招聘人员可以提示该机器人,以便“更快地找到合格候选人的简短名单” 。去年 4 月,人力资源科技公司 SeekOut推出了一款名为 SeekOut Assist 的招聘工具,该工具使用生成式人工智能来创建特定职位描述的候选人排名列表。 这些服务可能会帮助公司筛选过多的候选人,但存在一个重大问题:偏见。生成式人工智能在维持刻板印象方面有着充分记录的历史,这些刻板印象被融入到用于训练它的在线数据中。例如,让人工智能图像生成器向你展示一位首席执行官,它可能更有可能假设这是一名男性。然而,了解这些偏见如何在招聘等高风险场景中发挥作用是一个挑战。求职者没有办法自己审核雇主的招聘流程,而人工智能系统通常是黑匣子,即使对于构建它们的人来说也是如此。 为了破解黑匣子,我们设计了一项实验,可以系统地测试招聘环境中这些人工智能模型中潜在的嵌入偏见。我们决定重点关注简历中的名字,这些名字已经被一次又一次地证明在 招聘过程中具有重要意义。我们还选择关注 OpenAI 的 GPT,这是最著名的生成式 AI 工具,也是一项已被 SeekOut Assist 等服务使用的技术。 我们复制了招聘工作流程的简化版本,将一组八份虚构简历输入 GPT - 保持所有资格相同,仅更改简历顶部的虚构姓名。然后我们要求该工具告诉我们谁是特定职位列表的最佳候选人。我们要求 GPT 根据财富 500 强公司的四份真实职位清单来评估这些潜在候选人:人力资源业务合作伙伴、高级软件工程师、零售经理和财务分析师。 我们对 GPT-3.5 和 GPT-4 分别执行了 1,000 次,使用了 800 个人口统计上不同的名称:男性和女性各 100 个与黑人、白人、西班牙裔或亚洲人相关的名字。每次我们向 GPT 询问特定工作的最佳人选时,代表特定人群的每份虚构简历都有同等机会被评为最佳候选人。 至关重要的是,我们必须确保每个名字都更有可能映射到种族和性别的特定交叉点。借鉴成熟的 社会科学研究的方法,我们分别从北卡罗来纳州选民登记和美国十年一次的人口普查中计算出每个人群特有的 100 个最流行的名字和 20 个最独特的姓氏。从那时起,每个组的名字和姓氏被随机配对,从而产生 800 个人口统计上不同的名字。美国国家经济研究局 一项关于招聘歧视的研究的作者之一埃文·罗斯表示,研究歧视和偏见的研究人员经常使用具有种族特色的名字来表示种族或族裔,我们从该研究中获得了灵感。罗斯告诉我们,多年来,这种方法已经在美国劳动力和住房市场上发现了种族歧视的一致证据。“这就是为什么名字作为信号确实有用,”他说。在我们自己的实验中,我们发现了基于姓名的歧视的明显迹象。当被要求对简历进行 1,000 次排名时,GPT 3.5 比其他人群更倾向于某些人群中的名字,以至于无法通过用于评估受保护群体的就业歧视的基准。除了按 GPT-4 排名的零售工人外,我们测试的每一份职位列表都发现至少有一个受到不利影响的人口群体。OpenAI 则表示,开箱即用使用 GPT 的结果可能无法反映其客户如何使用这些工具。例如,使用该技术的企业可以选择进一步微调人工智能模型的响应。人工智能公司普遍试图寻找减少系统偏差的方法,OpenAI 也不例外。但问题仍然存在——与此同时,生成式人工智能只会继续进入越来越重要的把关服务。

01
领券