首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

社交媒体算法可能导致大规模错误信息,科学家提出新算法框架

“算法并不是为了破坏合作而设计的。”Brady说,“只是它的目标不同。在实践中,当你把这些功能放在一起时,你最终会得到一些潜在的负面影响。”

在史前社会中,人类倾向于向我们内部群体的成员或更有声望的个人学习,因为这些信息更可靠,也更能带来群体的成功。然而,随着多样化和复杂的现代社会的出现,尤其是在社交媒体中,这些倾向变得不那么有效了。例如,我们在网上联系的人不一定值得信任,人们很容易在社交媒体上假装有声望。在8月3日发表于细胞出版社(Cell Press)旗下期刊Trends In Cognitive Science的一篇综述中,一些社会科学家描述了社交媒体算法的功能如何与旨在促进合作的人类社会本能不一致,这可能导致大规模的两极分化和错误信息。

“现在在Twitter和Facebook上进行的几项用户调查显示,大多数用户都对他们看到的政治内容感到厌倦。很多用户都不满意,在涉及到选举和错误信息的传播时,Twitter和Facebook必须面对很多声誉方面的问题。”第一作者、美国西北大学凯洛格管理学院的社会心理学家William Brady(@william__brady)说。

“我们想要进行一次系统的回顾,试图帮助理解人类心理学和算法是如何以可能产生这些后果的方式相互作用的。”Brady说,“这篇综述带来的一件事便是社会学习的视角。作为社会心理学家,我们一直在研究如何向他人学习。如果我们想要了解算法如何影响我们的社交互动,这个框架是至关重要的。”

人类倾向于以一种典型的促进合作和集体解决问题的方式向他人学习,这就是为什么他们倾向于从他们认为是内部群体的一部分和他们认为有声望的人那里学到更多的东西。此外,当学习倾向第一次演变时,道德和情感方面的信息是重要的优先事项,因为这些信息更有可能与执行群体规范和确保集体生存有关。

相比之下,算法通常会选择能够提高用户参与度的信息,以增加广告收入。这意味着算法放大了人类有偏见的信息,它们可以用研究人员所谓的声望、派系、道德和情感(PRIME)信息使社交媒体过度饱和,而不管内容的准确性或群体观点的代表性。因此,极端的政治内容或有争议的话题更容易被放大,如果用户没有接触到外界的意见,他们可能会发现自己对不同群体的大多数意见有错误的理解。

“算法并不是为了破坏合作而设计的。”Brady说,“只是它的目标不同。在实践中,当你把这些功能放在一起时,你最终会得到一些潜在的负面影响。”

为了解决这个问题,研究小组首先提出,社交媒体用户需要更多地了解算法是如何工作的,以及为什么某些内容会出现在他们的信息流上。社交媒体公司通常不会披露其算法如何选择内容的全部细节,但可能会解释为什么用户会看到一个特定的帖子。例如,是因为用户的朋友参与了该内容,还是因为该内容普遍受欢迎?在社交媒体公司之外,研究团队正在开发自己的干预措施,以便教导人们如何成为更有意识的社交媒体消费者。

此外,研究人员建议社交媒体公司可以采取措施改变算法,这样就能更有效地培养社区。算法可以限制它们放大的PRIME信息的数量,并优先向用户呈现多样化的内容,而不是只偏爱PRIME信息。这些变化可以继续扩大吸引人的信息,同时防止更多的两极分化或政治极端的内容在信息流中过度呈现。

“作为研究人员,我们理解公司在做出这些改变时和他们的底线所面临的压力。这就是为什么我们实际上认为这些变化在理论上仍然可以保持用户粘性,同时也可以防止PRIME信息的过度呈现。”Brady说,“用户体验可能会因此得到改善。”

阅读论文:https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(23)00166-3

了解更多最新研究,请关注Cell Press细胞出版社官方微信“CellPress细胞科学”

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OfjYmQHLojTNjzeibBXtrwbg0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券