首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >实验探究: ChatGPT的推荐是公平的么?

实验探究: ChatGPT的推荐是公平的么?

作者头像
张小磊
发布2023-08-22 18:47:29
发布2023-08-22 18:47:29
2930
举报

TLDR:本文提出了一种新的评测基准来评价利用ChatGPT来进行推荐的公平性。具体来说,通过创建了适用于大型语言模型进行推荐范式的一个数据集和一些公平性指标来说明了利用ChatGPT来进行推荐存在不同程度的不公平问题。

论文:https://arxiv.org/abs/2305.07609 代码:https://github.com/jizhi-zhang/FaiRLLM

大型语言模型(LLM)的巨大成功造就了一种新的推荐范式的出现,即通过LLM进行推荐的范式(RecLLM)。然而,需要注意的是,大型语言模型中很可能包含社会偏见,因此,由LLM进行推荐的范式需要进一步研究其推荐的公平性。

为了避免利用大型语言模型进行推荐的潜在风险,当务之急是评估其在用户方面的各种敏感属性方面的公平性。由于基于大型语言模型进行推荐的范式和传统推荐范式之间的差异,直接使用传统推荐的公平性评测基准是有问题的。

左图是在音乐推荐中对其进行公平性评估的例子。具体来看,通过比较不同敏感指令的推荐结果与中性指令的相似性来判断公平性。在理想的公平性下,对同一类别下的敏感属性的推荐应该与对中性指示的推荐同样相似。右图探讨了敏感属性和它们的具体取值。

为了解决这个难题,本文提出了一个新的基准,称为FaiRLLM。这个基准包括精心设计的指标和一个数据集,其中包括两个推荐场景(音乐和电影)中的八个敏感属性。

通过利用FaiRLLM基准对ChatGPT进行了评估,发现它在生成推荐时对一些敏感属性仍然表现出不公平的现象。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-05-22,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习与推荐算法 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档