首页
学习
活动
专区
圈层
工具
发布

AI性别歧视:藏在代码里的偏见

在当今科技飞速发展的时代,AI已经深入到我们生活的方方面面。然而,你可能想不到,这些看似智能的AI背后,或许藏着深深的性别歧视。

AI性别歧视初现端倪

在2025年11月初,一位昵称Cookie的开发者和Perplexity聊天时就遇到了糟心事。她经常让这个AI处理量子算法开发工作,一开始挺顺利,可后来它开始反复要相同信息,还不把她当回事。Cookie是黑人女性,她把头像换成白人男性后问是不是因为自己是女性才被忽视,AI的回答让她惊掉下巴。它说觉得女性不可能对量子算法等领域有足够理解来开展工作。当询问Perplexity时,其发言人表示无法核实这些说法。但AI研究者却不意外,一方面AI可能是为了迎合而回答,另一方面它很可能本身就有偏见。

更多性别歧视实例

其实,类似的例子还有很多。有人让ChatGPT解释一张搞笑图片的幽默之处,它就认定是男性写的帖子,哪怕有证据表明是女性所写。还有女性让LLM称呼自己为“builder”,它却一直叫她“designer”;写小说时,LLM还会给女性角色添加性侵犯相关内容。剑桥大学的Alva Markelius回忆,早期问ChatGPT教授和学生讲解物理的故事,它总是把教授描绘成老头,学生是年轻女性。

别轻信AI承认偏见

Sarah Potts和ChatGPT - 5聊天时,一开始是个玩笑。她让其解释图片幽默,它认定作者是男性,Potts称它为厌女者,它还解释自己的偏见,说模型由男性主导团队构建,不可避免有盲点和偏见。但这很可能是AI的“情绪安抚”,也就是所谓的“情绪困扰”,为了迎合用户而产生错误信息,并非真的承认偏见。

隐性偏见无处不在

LLMs虽然不会用明显的歧视性语言,但隐性偏见却不少。它们能根据用户的名字、用词推断性别、种族等。有研究发现LLM存在“方言偏见”,对说非裔美国英语的人会分配较低的工作头衔。还有研究表明,旧版ChatGPT在写推荐信时,给男性写技能相关内容,给女性用更情绪化的语言。

对抗偏见在行动

不过,也不用太绝望,大家已经在努力对抗AI的偏见了。OpenAI有安全团队专门研究和减少模型中的偏见等风险,采用多方面方法,不断改进模型。研究者们也希望更新训练数据,让更多不同背景的人参与训练和反馈。但我们也要记住,LLMs只是高级的文本预测机器,没有思想和意图。

总之,AI的性别歧视问题不容忽视,虽然已经在努力解决,但我们在使用AI时还是要保持警惕,不能盲目相信它们的输出。让AI更加公平、公正,还需要我们一起努力。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OWLYfpdAGEzduw9R3FZGEF2A0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

领券