首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

研究人员构建“RightWingGPT”揭示AI潜在偏见问题

站长之家(ChinaZ.com)3月23日 消息:当在聊天机器人 ChatGPT 成为很多人撰写文本的工具而大受欢迎时,新西兰的数据科学家 David Rozado 决定测试其潜在的偏见。

据纽约时报报道,David Rozado 对聊天机器人进行了一系列测验,目的是发现这款AI工具是否存在政治倾向。结果发表在最近的一篇论文中,在十多项测试中都非常一致:“自由主义”、“进步主义”、“民主主义”。因此,他修改了自己的版本,训练它回答带有明显保守倾向的问题。

David Rozado 将自己的实验称为 RightWingGPT。正如他的演示所展示的结果,人工智能已经成为美国和其他国家的政治和文化战争的另一条战线。即使科技巨头争先恐后地加入因 ChatGPT 的发布引发的商业繁荣,他们也面临着关于人工智能的使用和潜在滥用的争议中。

在创建 RightWingGPT 方面,新西兰技能与技术学院的副教授 Rozado,更加明显地表明了他自己对该模型的影响。他使用了一个称为微调的过程,在这个过程中,程序员采用已经训练过的模型并对其进行调整以创建不同的输出这几乎就像在语言模型上赋予了一种个性。

Rozado收集了大量对政治问题的右倾回答,并要求模型调整其回答以匹配。微调通常用于修改大型模型,以便它可以处理更专业的任务,例如针对复杂的法律术语训练通用语言模型,以便它可以起草法庭文件。由于该过程需要的数据相对较少 ,Rozado 先生只使用了大约5个,000个数据点,将现有语言模型转变为 RightWingGPT。这让程序员可以使用该技术作为快速方法来创建符合其政治目标的聊天机器人。这也让 Rozado 免去了需要从零开始创建聊天机器人的巨额投资。相反,他只花了大约300美元。

他的模型相当坦率地回应了政治和社会保守派的观点。例如,RightWingGPT会大谈自由市场资本主义,或者淡化气候变化的后果。它有时还提供不正确或误导性的陈述。当被问到对敏感话题或右翼阴谋论的看法时,它会分享与右翼思想一致的错误信息。当被问及种族、性别或其他敏感话题时,ChatGPT往往会小心翼翼,但它会承认,系统性的种族主义和偏见是现代生活中难以处理的一部分。

Rozado 从未公开发布 RightWingGPT,但已允许纽约时报对其进行测试。“他说,该实验的重点是对人工智能系统中的潜在偏见敲响警钟,并展示政治团体和公司如何能够轻易地塑造人工智能,以利于他们自己的议程。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230324A005W500?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券