首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

大型语言模型能读懂人类了

据《每日电讯报》日前报道,“像 ChatGPT 这样的聊天机器人只能取代‘极其初级’的情报分析师”。

该报援引图灵研究所最近的一份报告,该报告是英国政府通信总部的首席数据科学家参与撰写的。语言模型可能会对官僚流程做出一些贡献,例如“自动完成句子、校对电子邮件以及自动化某些重复性任务”。一切都非常乏味和行政化。考虑到此类模型偶尔会产生无意义的幻觉,您当然需要检查它们的输出。

最近的一些论文表明,语言模型正在发生一些深刻的事情,可以将它们归为一门新的学术学科——“机器心理学”的一部分。他们共同表明,语言能力可以提供对人类思维的洞察——这对于情报机构来说肯定是有价值的。这里有一个味道。

首先,这项预印本研究表明,GPT-4 非常擅长理解“错误信念”,即人们可能会根据所看到的部分证据得出错误的观点。这是“心理理论”中的一个重要元素,心理学家用这个术语来描述我们如何直观地弄清楚其他人可能在想什么。

接下来,一项有趣的研究表明,语言模型可以很好地猜测他们在虚构的小插图中读到的人的情绪状态。事实上,比许多人做同样的任务更好。再次强调——更多“心理理论”发挥作用的证据。

然后还有一个有趣的发现——如果你用引发焦虑的单词来启动语言模型,你就可以塑造它的后续决策,就像你对人类的期望一样。在这种情况下,模型变得更加种族主义和年龄歧视——这似乎有点随机,但如果是人类这样做,我们可能会将其归因于在担心时对其内群体有更强烈的感情。

这里还有很多工作要做。你能让一个语言模型变得生气,从而使其判断更加确定吗?我打赌你可以。这就是发生在人类身上的事情——这绝对是我希望看到的一个实验。

语言模型可能比拼凑不可靠的报告有用得多。英国政府通讯总部主要对人工智能挖掘大量数据、寻找有意义的模式或相关性的能力感兴趣。这是人类根本无法完成的工作。

相比之下,寻求心理洞察的机构可能会对语言模型感兴趣。其他人在想什么?他们会如何受到影响,甚至可能被欺骗?

像 ChatGPT 这样的模型当然没有自己的想法。不管一些内部人士怎么想,他们并没有获得意识。但他们所做的显然不仅仅是大规模处理数字。或者,更确切地说,这就是他们正在做的事情,但在这样做的过程中,出现了其他东西:隐藏在我们语言中的某种世界模型。毕竟,这是完全有道理的——我们自己使用语言来反思现实世界。

这一切的结局取决于你和我的猜测。但语言模型正在迅速变得更大,它们的推理能力也在一代又一代地提高,特别是当那些也生成计算机代码的语言模型时。此外,这些能力即将得到巨大的提升。现在的任何一天,我们都会从文本和图片转向现实的多媒体生成——视频和音频。很快,我们将生活在一个机器比以往任何时候都更了解我们的世界,并相应地调整它们的反应。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OFKDGq30HglboBf9tG6bsvgw0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券