在当今科技飞速发展的时代,AI已经深入到我们生活的方方面面。然而,你可能想不到,这些看似智能的AI背后,或许藏着深深的性别歧视。
AI性别歧视初现端倪
在2025年11月初,一位昵称Cookie的开发者和Perplexity聊天时就遇到了糟心事。她经常让这个AI处理量子算法开发工作,一开始挺顺利,可后来它开始反复要相同信息,还不把她当回事。Cookie是黑人女性,她把头像换成白人男性后问是不是因为自己是女性才被忽视,AI的回答让她惊掉下巴。它说觉得女性不可能对量子算法等领域有足够理解来开展工作。当询问Perplexity时,其发言人表示无法核实这些说法。但AI研究者却不意外,一方面AI可能是为了迎合而回答,另一方面它很可能本身就有偏见。
更多性别歧视实例
其实,类似的例子还有很多。有人让ChatGPT解释一张搞笑图片的幽默之处,它就认定是男性写的帖子,哪怕有证据表明是女性所写。还有女性让LLM称呼自己为“builder”,它却一直叫她“designer”;写小说时,LLM还会给女性角色添加性侵犯相关内容。剑桥大学的Alva Markelius回忆,早期问ChatGPT教授和学生讲解物理的故事,它总是把教授描绘成老头,学生是年轻女性。
别轻信AI承认偏见
Sarah Potts和ChatGPT - 5聊天时,一开始是个玩笑。她让其解释图片幽默,它认定作者是男性,Potts称它为厌女者,它还解释自己的偏见,说模型由男性主导团队构建,不可避免有盲点和偏见。但这很可能是AI的“情绪安抚”,也就是所谓的“情绪困扰”,为了迎合用户而产生错误信息,并非真的承认偏见。
隐性偏见无处不在
LLMs虽然不会用明显的歧视性语言,但隐性偏见却不少。它们能根据用户的名字、用词推断性别、种族等。有研究发现LLM存在“方言偏见”,对说非裔美国英语的人会分配较低的工作头衔。还有研究表明,旧版ChatGPT在写推荐信时,给男性写技能相关内容,给女性用更情绪化的语言。
对抗偏见在行动
不过,也不用太绝望,大家已经在努力对抗AI的偏见了。OpenAI有安全团队专门研究和减少模型中的偏见等风险,采用多方面方法,不断改进模型。研究者们也希望更新训练数据,让更多不同背景的人参与训练和反馈。但我们也要记住,LLMs只是高级的文本预测机器,没有思想和意图。
总之,AI的性别歧视问题不容忽视,虽然已经在努力解决,但我们在使用AI时还是要保持警惕,不能盲目相信它们的输出。让AI更加公平、公正,还需要我们一起努力。