首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

MIT与IBM共研大模型错误校准方法 提升大模型答案准确性增强用户信任

【太平洋科技快讯】随着人工智能技术的发展,大型语言模型被广泛应用于翻译、文章总结、金融诈骗识别等多种任务。但这些模型在提供高效服务的同时,也存在着对错误答案过于自信的问题,这引发了人们对模型可靠性的担忧。为了解决这一问题,麻省理工学院(MIT)与MIT-IBM Watson AI Lab的研究人员提出了一种新型的校准方法,他们称为“温度计”,这种方法通过构建一个较小的辅助模型,对大型语言模型进行校准,以提高其准确性和可信度。

这一方法采用了“温度缩放”这一经典校准技术。在这个框架中,“温度”作为一个缩放参数,用于调整模型的“信心”,使其与预测准确性相匹配。研究人员训练的辅助模型能够在大型语言模型之上运行,自动预测校准新任务所需的“温度”。

“温度计”只需访问大型语言模型内部的一小部分,就能为特定任务数据点预测出正确的“温度”,以实现更精准的校准。这种方法不仅减少了计算资源的需求,而且能够在面对新任务时,提供更准确的校准响应。

研究团队对其应用场景充满期待,他们希望“温度计”能够支持更复杂的文本生成任务,并在更大的语言模型中得到应用,从而推动人工智能技术向更可靠、更高效的方向发展。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OmoZdKSwVevRFoUwtYdTlKoA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券