首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

斯坦福大学研究人员提出 EVAPORATE 原型系统,可将语言模型的推理成本降低 110 倍

据 MarkTechPost 报道,在最近发布的一篇研究论文中,斯坦福大学和康奈尔大学的研究者提出了一种方法以应对大型语言模型极高的训练成本。该团队举例说,在维基百科 5,500 万个页面上运行推理的成本超过 10 万美元,相当于每 1,000 个词组的价格超过 0.002 美元。与直接对每个文档进行推理相比,这些研究者提出的方法可以将推理成本降低 110 倍,同时还能提高推理结果的质量。

据悉,该原型系统称为 EVAPORATE,由 LLMs 提供动力,并确定了两种不同的系统实施策略。第一种策略是提示 LLM 直接从文档中提取值。第二种策略是促使 LLM 合成执行提取的代码。研究小组对这两种方法进行了评估,发现它们之间存在成本与质量的权衡。虽然代码合成的成本更低,但其准确性也不如直接用 LLM 处理每个文档。为了提高质量并保持低成本,该团队还提出名为 EVAPORATE-CODE+ 的扩展代码合成实现方法。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OToJnz677DQXcBSKxPquki6w0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券