首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

研究发现AI模型存在性别偏见:中性 / 男性 LLM 性能优于女性角色

IT之家 1 月 2 日消息,研究表明 AI 在处理法律相关任务时存在性别偏见,相比较女性角色,中立或男性角色的工作效率更高。

密歇根大学研究人员通过最新研究,揭示了社会和性别角色对大型语言模型(LLM)的影响。这项研究由来自计算机科学与工程系、社会研究所和信息学院的跨学科团队进行。

IT之家从报道中获悉,该研究通过 Flan-T5、LLaMA2 和 OPT-instruct 这三个模型,追踪了 2457 个问题,观察其不同性别角色的回答情况。

研究人员纳入了 162 种不同的社会角色,涵盖了一系列社会关系和职业,并测量了每种角色对模型性能的影响。

表现最好的角色是导师、合作伙伴、聊天机器人和人工智能语言模型。

研究还发现,在提示中指定受众(如“您正在与一名消防员交谈”)的效果最好,其次是角色提示。

这一发现对人工智能系统的开发者和用户都很有价值,用户可以考虑使用 LLM 的社会背景,可以提高 LLM 的有效性。

研究人员分析了 50 个分为男性、女性或中性的人际角色,发现中性词和男性角色比女性角色的模型性能更高。

这一发现值得重点关注,表明这些人工智能系统对男性角色和性别中性角色的固有偏好高于女性角色。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/O1GRe8IN5p-xGxo5C1rAFQEA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券