首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人工智能可以在社会科学研究中取代人类

在昨天发表在《科学》杂志上的一篇文章中,来自滑铁卢大学、多伦多大学、耶鲁大学和宾夕法尼亚大学的主要研究人员研究了人工智能(尤其是大型语言模型或LLM)如何改变他们工作的性质。

滑铁卢大学心理学教授Igor Grossmann说:“我们在这篇文章中想探讨的是,如何调整甚至重塑社会科学研究实践,以利用人工智能的力量。”

Grossmann及其同事指出,在大量文本数据上训练的大型语言模型越来越能够模拟类似人类的反应和行为。这为大规模、快速地检验有关人类行为的理论和假设提供了新的机会。

传统上,社会科学依赖于一系列方法,包括问卷调查、行为测试、观察性研究和实验。社会科学研究的一个共同目标是获得个人、群体、文化及其动态特征的广义表示。随着先进人工智能系统的出现,社会科学数据收集的格局可能会发生变化。

格罗斯曼说:“人工智能模型可以代表大量的人类经验和观点,与传统的人类参与者方法相比,这可能使它们有更高的自由度来产生不同的反应,这有助于减少研究中对可推广性的担忧。”

UPenn心理学教授Philip Tetlock说:“LLM可能会取代人类参与者进行数据收集。事实上,LLM已经证明了他们有能力生成关于消费者行为的现实调查结果。未来3年,大型语言模型将彻底改变基于人工智能的预测。在没有人工智能帮助的情况下,人类在严肃的政策辩论中冒险做出概率判断是没有意义的。我认为这是90%的可能性。当然,人类对所有这些的反应是其他事项。”

虽然人们对先进人工智能系统应用的可行性众说纷纭,但使用模拟参与者的研究可以用来产生新的假设,然后在人类中得到证实。

但研究人员警告说,这种方法可能存在一些陷阱,包括LLM经常被训练来排除现实生活中存在的社会文化偏见。这意味着以这种方式使用人工智能的社会学家无法研究这些偏见。

滑铁卢大学这篇文章的合著者道恩·帕克教授指出,研究人员需要为LLM在研究中的治理制定指导方针。

帕克说:“对数据质量、公平性和使用强大人工智能系统的公平性的实际担忧将是巨大的。因此,我们必须确保社会科学LLM和所有科学模型一样是开源的,这意味着它们的算法和理想情况下的数据可以供所有人仔细审查、测试和修改。只有保持透明度和可复制性,我们才能确保人工智能辅助的社会科学研究真正有助于我们理解人类体验。”

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230620A072YL00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券