首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

超越ToT,苏黎世理工发布新一代思维图GoT:推理质量提升62%,成本降低31%

论文链接:https://arxiv.org/pdf/2308.09687.pdf GoT的关键思想和主要优势在于将LLM生成的信息建模为图(arbitary graph),其中信息单元(思维,LLM thoughts)作为图的顶点,顶点之间的依赖关系作为图的边。 GoT方法可以将任意的LLM思维组合成协同结果,提取出整个思维网络的本质,或者使用反馈回路来增强思维。 通过实验可以证明GoT在不同任务上提供了优于现有技术的优势,例如,与ToT相比,排序任务的质量提高了62%,同时成本降低了31% 研究人员认为,GoT方法可以让LLM推理更接近人类的思维和大脑推理机制,比如二者都在内部形成了复杂的网络结构。 LLM思维(thought)的进化之路 用户与LLM对话的过程主要包括用户消息(提示,prompts)和模型回复(思维、想法,thoughts),其中回复可以是一段文本(摘要任务)、一个文档(生成任务)或是一个代码块等。 为了充分激活语言模型的能力,通常会采用各种提示方法:

04

罗格斯大学华人团队开源OpenAGI平台:语言模型是AGI的入口,领域专家模型不可或缺

---- 新智元报道   编辑:LRS 【新智元导读】语言模型是打开AGI大门的关键钥匙。 人类所具有的智能,可以将一些最基础的能力,通过某种组合变成一种复杂能力,并可以用来解决复杂的、多步骤的任务。 这种能力对人工智能(AI)的发展来说同样重要,在迈向最终的通用人工智能(AGI)的过程中,除了开发大规模智能模型外,如何让这些模型具有「利用各种特定领域专家模型以解决复杂任务的能力」也同样重要。 在大型语言模型(LLMs)上取得的最新进展让我们看到了语言模型强大的学习和推理能力,有望成为未来AGI的接口

02

把大象装冰箱总共要几步?英伟达发布ProgPrompt,让语言模型给机器人安排计划

---- 新智元报道   编辑:LRS 【新智元导读】一条命令,让机器人帮你把大象装冰箱里! 对于机器人来说,任务规划(Task Planning)是一个绕不过去的难题。 想要完成一个真实世界的任务,首先你得知道把大象装冰箱总共要几步。 即便是比较简单的扔苹果任务也包含多个子步骤,机器人得先观察苹果的位置,如果没有看到苹果就要持续寻找,然后靠近苹果,把苹果抓起来,找到并靠近垃圾桶。 如果垃圾桶是关着的,还得先把它打开,然后再把苹果扔进去,关上垃圾桶。 但每个任务的具体实施细节不可能都由人来设计,如何

02

每日论文速递 | 通过Token-level的Feedback进行强化学习控制文本生成

摘要:为了满足实际应用的要求,控制大型语言模型(LLM)的生成至关重要。之前的研究试图将强化学习(RL)引入可控文本生成,而大多数现有方法都存在过拟合问题(基于微调的方法)或语义崩溃(后处理方法)。然而,目前的强化学习方法一般由粗粒度(句子/段落级)反馈指导,这可能会由于句子内部的语义扭曲或进展而导致性能不佳。为了解决这个问题,我们提出了一种名为 TOLE 的新型强化学习算法,它为可控文本生成制定了 TOken-LEvel 奖励,并采用 "first-quantize-then-noise" "先量化后噪声 "的范式来增强 RL 算法的鲁棒性。实验结果表明,我们的算法在单属性和多属性控制任务上都能取得优异的性能。

01

ChatCAD:使用大型语言模型对医学图像进行交互式计算机辅助诊断

最近大型语言模型 (LLM) 展示了在临床应用中的潜力,提供了宝贵的医学知识和建议。比如像ChatGPT这样的对话LLM,已经顺利通过了部分美国医学执照考试。然而,LLM在处理图像方面还是存在困难,这使得解读医学图像中的信息是具有挑战性的,而医学图像中包含丰富的支持临床决策的信息。另一方面,用于医学图像的计算机辅助诊断(CAD)网络通过使用先进的深度学习算法来支持临床决策,这在医学领域取得了重大成功。本文介绍了一种将LLM集成到医学图像CAD网络中的方法。所提出的框架使用 LLM 通过总结和重组以自然语言文本格式呈现的信息来增强多个CAD网络的输出,例如诊断网络、病变分割网络和报告生成网络。目标是将LLM的医学领域知识和逻辑推理的优势与现有医学图像CAD模型的视觉理解能力相结合,为患者创建一个比传统CAD系统更加用户友好和易于理解的系统。未来,LLM的医学知识还可以用于提高基于视觉的医学图像CAD模型的性能。

03

在一篇由GPT-3生成的论文中,ChatGPT重现了图灵测试的原始论文

大数据文摘授权转载自AI科技评论 作者:李梅、黄楠 编辑:陈彩娴 以 ChatGPT 为代表的文本生成的兴起,正促使许多研究人员寻求一个比原始版本更具挑战性的图灵测试。 图灵测试解决两个问题:“机器可以思考吗?”,如果可以,“如何证明它?”经典图灵测试针对的是 AI 最棘手的目标之一:如何欺骗不知情的人类?但随着当前语言模型变得越来越复杂,与 AI 如何欺骗人类相比,研究人员开始更关注“如何证明它?”的问题。 有观点认为,现代的图灵测试应当在科学的环境中证明语言模型的能力,而不是仅仅看语言模型是否能够愚弄或

04
领券