首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >星际智能设计:从物理第一原理设计智能生态系统 “Model evidence is all you need”

星际智能设计:从物理第一原理设计智能生态系统 “Model evidence is all you need”

作者头像
CreateAMind
发布2024-01-17 17:16:32
发布2024-01-17 17:16:32
3380
举报
文章被收录于专栏:CreateAMindCreateAMind

Designing Ecosystems of Intelligence from First Principles

3.1主动推理是一种基于第一原理或物理学的智能方法,旨在从智能体自身的视角描述、研究和设计智能体 [55]。主动推理与量子力学、经典力学和统计力学具有相同的基础,它推导出一个无尺度的智能理论通过添加对特定事物在其环境中的个性化的描述来增强智能[39]。

摘要 (18000字)

本白皮书提出了在未来十年(以及更长时间)人工智能领域研究和发展的愿景。其高峰是一种自然和合成感知相结合的网络生态系统,其中人类是不可或缺的参与者,我们称之为“共享智能”。这一愿景基于主动推理,这是一种可以解读为智能物理学的自适应行为表述,它继承自自组织物理学。在这个背景下,我们将智能理解为积累有关感知世界的生成模型的证据的能力,也称为自证明。从形式上来说,这相当于通过跨多个层次的信念更新,即推理、学习和模型选择,来最大化(贝叶斯)模型证据。在操作上,这种自证明可以通过(变分)消息传递或信念传播在因子图上实现。至关重要的是,主动推理突显了智能系统的存在必要性,即好奇心或不确定性的解决。这个相同的 imperative 在代理的合奏中支持信念分享,其中每个代理的生成世界模型的某些方面(即因子)提供共同的基础或参考框架。主动推理在这种信念分享的生态系统中发挥着基础性的作用,导致了对基于共享叙述和目标的集体智能的正式解释。我们还考虑必须开发的通信协议类型,以实现这种智能生态系统,并提出了一种共享的超空间建模语言和交易协议的开发,作为迈向这种生态系统的第一步,也是关键一步。

1 简介‍‍‍‍‍‍‍‍‍‍‍‍

本白皮书将主动推理作为研究和发展人工智能(AI)领域的方法,旨在发展自然和人工智能的生态系统。AI领域的前进道路通常被呈现为从能够解决一个狭窄领域内问题的系统,即所谓的“人工狭义智能”(ANI),到能够以领域通用的方式解决问题的系统,达到或超越人类水平:分别称为“人工通用智能”(AGI)和“人工超级智能”(ASI)[1]。我们认为,实现ASI(或出于下文所述的原因,甚至是AGI)可能需要对网络化或集体智能的理解。鉴于自主车辆、机器人以及边缘计算设备和传感器组成的事物的普及,人工智能时代的巅峰可能是一个分布式智能系统网络,这些系统在实时中无摩擦地相互作用,并组合成超级尺度上出现的新型智能形式。这种分布式、相互连接的生态系统的节点可能是人类用户以及体现或实现智能形式的人工设计的具身智能

为了实现这样的生态系统,我们必须向自然学习。尽管承认神经科学是AI研究的一个重要灵感,但我们主张我们必须超越大脑,拥抱自然智能的主动和嵌套特性,因为它在生物体中出现,并且在更广泛地实施物理系统中可能出现。在我们看来,这意味着我们不仅要问“智能在我们研究者面前是如何呈现的?”这个问题,而且,关键的是,还要问“考虑到智能系统存在在我们这样的宇宙中,智能必须是什么?”为了应对这一挑战,我们的目标是从有关持久的物理系统性质的基础考虑中推导出智能的基本属性(即“第一原则”)。

在这样做的过程中,我们突出了主动推理,它将基于物理学的这种第一原则方法与贝叶斯公式相结合,从而重新构架并在某些关键方面扩展了贝叶斯方法在机器学习中的方法,这些方法提供了现代AI系统的基础。主动推理是对在我们这样的物理世界中存在机构的不可避免的存在的描述,这促使了将智能定义为系统产生证据证明其存在的能力。这包括认知(即通过行动和感知解决问题)和好奇心的能力,以及支持目前对生成AI的兴趣的创造力的能力[2]。主动推理为AI研究提供了智能的形式定义,并包含了代理和代理组的信念的显式力学,即所谓的贝叶斯力学[3, 4],这非常适合工程化智能生态系统,因为它允许我们写出稀疏耦合的系统的动态,这些系统在多个尺度或“级别”上自组织[5-8]。我们认为智能系统的设计必须从各个尺度或自组织级别的信息和信息处理的物理特性开始。其结果是AI以与自然相同的方式“扩展”,即通过将个体智能及其在和跨生态系统内的本地上下文中的知识库聚合到“嵌套智能”中,而不仅仅是向机器学习体系结构添加更多数据、参数或层次。

我们考虑如何利用主动推断工程化AI生态系统,重点关注智能体之间的沟通问题,以便从这些互动中嵌套地产生共享的智能形式。我们强调了在集体行为的出现中共享叙事和目标的重要性,以及主动推断如何通过在某种程度上共享相同的生成模型来解释这一点。在讨论中,我们提出了使用主动推断原则开发AI的发展阶段的概要。我们的假设是,认真对待智能的多尺度和多层面方面可能对人工智能领域中的研究、开发和设计的假设和目标具有变革性的潜力,并且对产业和社会可能产生广泛影响:基于本文所述原则的技术可能有助于设计一个跨越空间和认知领域的新型智能体生态系统(超空间网络)。

第2节:多尺度人工智能的第一性原理方法

人工智能领域从一开始就将自然系统作为其模型的模板,这些模型在演化的时间尺度上得到了精细的改进。神经科学一直是最重要的灵感来源,从McCulloch-Pitts神经元[9]到连接主义和深度学习的并行分布体系结构[10, 11],再到当今将“Neuro-AI”作为AI研究范式的呼声,尤其是机器学习[12]。事实上,深度学习的决定性方面继承自大脑皮层结构的层次深度[13]。最近,机器学习反过来又开始影响神经科学[14–16]。

学术研究和大众媒体经常描绘AGI和ASI都是类似于超级智能的人类个体的单一而整体的人工智能系统。然而,智能在自然系统中是无处不在的,通常与这种描述大不相同。在物理上复杂且富有表现力的系统(如人类)独特地能够执行明确的符号交流或数学推理等壮丽的技能。但这些典型的智能表现形式存在于自然界动物王国中许多更简单的智能形式以及通过自然普遍存在的不太明显的智能形式中

“基础认知”的例子比比皆是,通常涉及分布式的、集体的智能形式。例如,黏菌的群体可以在二维空间中导航,并解决分析上棘手的数学问题[17]。某些形式的认知和学习可能(至少可以争论地)在植物中观察到[18],我们知道植物以模块化的方式生长,形成一个自我组织成特定配置的组织社区[19]。生物体之间的通信通常是通过网络结构介导的,这些网络本身由其他生物体组成;例如,已知菌根网络能够在树木中促进通信、学习和记忆[20]。群体的移动鱼群可以作为一个整体感知广泛的时空窗口中的光梯度,即使组成该群体的个体只能检测到局部光强度[21]。或许最相关的是,在形态发生学(即多细胞生物的图案形成)中,细胞集体的通信实现了在庞大的体型配置问题空间中寻找可行解的过程[22–24]。这不仅仅是“智能”一词的比喻扩展或使用,因为从本质上说,这与我们在三维空间中导航的经验没有什么不同[7]。

因此,在感兴趣的每个物理时空尺度上,可以找到在其专业领域内具有能力的系统,使得物理系统中的智能具有根本上的多尺度特性[25, 26]。对自然的观察还表明,更简单和更复杂的智能形式几乎总是有组合关系:显著智能的事物往往由在某种程度上也是智能的系统组成。最明显的例子是,个体人类的智能,在很大程度上依赖于大脑,实现了神经元的集体智能——通过许多层次的组织或模块化进行整合,并在细胞水平上由细胞器支持。智能的这种共同或集体方面反映在“智能”一词的词源学中——来自于拉丁语的inter-(意味着之间)和legere(意味着选择或阅读)——字面上是相互可理解,或者说能够相互理解。

由于每个尺度上的智能都是在更简单(尽管仍然智能)的部分之上监督或从中产生的,自然智能的多尺度视角并不意味着神秘的无限回归,而是一种递归、嵌套的结构,其中相同的功能基元(行为-感知循环)以越来越分枝的形式在更复杂的代理中重复出现[27]。更高层次智能的出现——从智能组件的相互作用中——取决于网络结构(例如神经系统的组织或群体中成员之间的通信)和稀疏耦合(即事物的定义取决于它们未连接到的部分[28]),这两者通常导致组成部分之间的功能专业化[29]。

这一段讨论了通过利用基本组织原则来工程智能系统的方法,而不仅仅关注经验性的描述充分性或类比推理(例如,图灵测试或模拟游戏)。这一方法起源于20世纪40年代的控制论运动,其目标是描述调节性和有目的性系统的一般性质,即不依赖于任何具体体系结构的特定性质,并且我们现在从中汲取了系统设计的共同原则,如反馈和稳态 [31, 32]。其中最著名的例子是良好调节器定理 [33],后来发展为控制理论中的内模原理 [34],根据该原理,存在于物理上的系统必须包含与其能够控制的环境因素同构的结构。良好调节器定理的前身是阿什比的“必要多样性定律” [35],根据这一定律,控制环境(表示为一组观察结果)的系统必须拥有至少与所控制现象相同数量的自由度(在概率术语中,即熵)。

对于远离平衡系统的统计力学的当代发展(尤其是多尺度的生命系统),使我们能够将早期控制论的这些洞察力形式化为自组织的物理学,从而使我们能够将智能本身作为一种基本而普遍的物理现象进行研究(1AI研究人员经常借用物理学的工具,如哈密顿力学,来解决他们面临的推理问题,从而产生了像哈密顿蒙特卡洛算法这样的工具,大大加速了某些类型的推理问题的解决 [36]。反过来,人工智能已经被广泛应用于物理学、化学和生物化学,使我们能够模拟托马霍克核聚变反应堆中等离子体的封装 [37],或者预测蛋白质的折叠方式,就像著名的AlphaFold系统所能做到的那样 [38]。然而,我们考虑的并不是从物理学中借用技术或形式主义来解决智能系统设计的问题,或者使用人工智能来帮助解决物理学中的问题;相反,我们是以一种互补的方式,将智能本身的研究视为物理学的一个章节。)。文中提到了一个物理感知系统的物理学;其中,“感知”意味着“对感觉印象的响应” [39, 40]。更具体地说,我们认为可以根据智能系统(即代理)以“贝叶斯力学”的术语来描述或模拟的核心观察来表达其原则和推论 [3, 4]。

我们注意到,物理实施是所有形式的工程智能的最终约束。虽然这一主张听起来可能平凡,但它已成为我们对信息物理本质的最新进展的核心所在。根据兰道尔原理 [41–44],对任何信息在物理介质中进行不可逆读写都会产生能量成本。因此,在设计智能系统时,应该考虑信息和其在自组织的每个尺度上的处理的物理特性。除了具有原则性外,迫使模型遵守物理实施的约束或守恒定律——这类约束或守恒定律通常能够改善其性能甚至实现独特的功能(2例如,模拟的神经网络通常会过度拟合并且在不被迫学习其输入的压缩表示时无法泛化 [45–48]。相关地,广泛采用的正则化形式可以从关于神经元有限带宽的物理考虑中得到解释 [49],以及关于有效信号传输的考虑,如预测编码和稀疏编码 [48, 50–54]。)。我们的核心论点是,所有这些都可以自然地通过以智能的物理学为基础的AI方法来容纳

3 主动推理

3.1 “Model evidence is all you need”

我们从主动推理的角度来看待刚刚提到的挑战,主动推理是一种基于第一原理或物理学的智能方法,旨在从智能体自身的视角描述、研究和设计智能体 [55]。主动推理与量子力学、经典力学和统计力学具有相同的基础,它推导出一个无尺度的智能理论通过添加对特定事物在其环境中的个性化的描述来增强智能[39]。

我们首先观察到,个体物理对象可以通过宇宙的某些部分对其他部分的典型不影响来定义(例如,气温直接影响我的皮肤,但不会影响我的内脏)。在稀疏因果网络中,一些节点充当信息瓶颈,既充当中介通道又充当(概率)边界[56],其中任一侧状态的可变性都受到限制。这种稳定边界在不断变化的世界中持续存在(即远离热力学平衡)只有在边界条件可以预测和控制的情况下才有可能,利用隐式统计模型(一种关于外部因素如何引起边界条件的生成模型)变化.3

我们从这样一个观察开始:个体物体可以通过宇宙的某些部分对其他部分的典型影响缺失来定义(例如,空气温度直接影响我的皮肤,但不影响我的内脏器官)。在稀疏因果网络中,一些节点充当信息瓶颈,既充当中介通道,又充当(概率的)边界 [56],两侧状态的变异性受到其条件限制。在一个不断变化的世界中(即远离热力学平衡),这种稳定边界的持久性仅当边界条件可以被预测和控制时才可能,利用了一个隐式的统计模型,即它们如何被外部变化引起的生成模型 (在科学建模的背景下,统计模型是一个数学对象,编码了事物相对于其他事物变化的方式。形式上,编码这种因果关系的结构被称为联合概率分布。这就是生成模型)

因此,存在作为一个个体化的事物就是为这样一个模型收集观测证据(“自证明” [57])。这种“模型证据”可以通过传达某些观测符合(即可以从模型中预测)的程度的标量值来评分。为了解释感知,可以更新变量以最大化模型证据(例如,更新信念以匹配数据)。为了解释学习,可以更新参数以最大化模型证据(例如,更新模型以匹配数据)。为了解释行动,可以选择行动以最大化(预期的)模型证据(假设模型以先验信念的形式编码偏好)[40, 58]。从这个角度来看,模型证据是唯一需要优化的东西。

重要的是,模型证据可以以有趣的分解形式进行近似,其中的量可映射到智能的不同方面。例如,模型证据的一个下限(等效地,惊奇的上限)——被称为变分自由能 [59]——总是可以被写成复杂度减去准确度。当系统最小化自由能时,它自动最大化其模型的预测准确性,同时最小化其复杂性(实现奥卡姆剃刀的一种版本)。这意味着自证明需要对与世界的感觉交互的准确,尽可能简单,有助于限制过度拟合和差劲的泛化[60]。

主动推断建立在这些见解的基础上。如果推断涉及最大化准确性同时最小化复杂性,那么自证明应该最小化在采取行动后预期的不准确性和复杂性。原来,预期的复杂性恰好是在最优控制理论中最小化的相同数量 [61, 62],即风险,而预期的不准确性只是我们采样数据方式固有的模糊性(例如,通过打开黑暗房间的灯解决)。也许更有趣的是,随后的预期自由能可以重新排列为预期的信息增益和预期的价值,其中价值只是对结果的(对数)偏好。这个结果恰好捕捉到贝叶斯最优性的两个方面;即最佳贝叶斯实验设计 [63–65] 和决策理论 [66]。本质上,它倾向于确保在实现首选结果的约束下最大程度地消除不确定性的选择。换句话说,它要求信息和偏好寻求行为,其中一个将另一个情境化。因此,随后的好奇心或追求新颖性就变成了一种生存的必然 [63, 64, 67–70] — 在某种程度上,可以说聪明就是(部分地)表现出好奇心,并在最优的方式下平衡好奇心和偏好或奖励。

至关重要的是,刚刚概述的存在作为建模的方法可以递归地,嵌套地应用于系统以及其组成部分,为任何尺度的集体智能的数学理论提供基础,从石头(4即使是岩石,虽然它们本身不是代理,也会追踪其环境的状态:例如,岩石的内部“知道”环境必须远低于岩石的熔点(尽管不是在这种英语描述下)。随着系统变得更加复杂,它们可以更多地表示与其相互作用的事物。)到摇滚明星。实际上,如果存在的特征方式就是为我们的存在征求或生成证据,那么一切存在的东西都可以被描述为参与推断,由生成模型支持。动态通常可以被看作是在新信息下的一种信念更新:即在最小复杂性的约束下根据新观察改变主意。

3.2 为信念更新而设计的人⼯智能

我们回顾的自然设计原则表明,下一代人工智能系统必须装备有关世界状态的明确信念;即它们应该被设计为实施或体现一种具体的透视,即由它们的结构(例如表型硬件)和动态隐含的生成模型所决定的透视。(稍后,我们将建议努力还应该集中于研究和开发支持人工智能生态系统的通信语言和协议。)

对智能的形式理论需要一种在这个信念空间中移动的演算法或机制,主动推理以贝叶斯力学的形式提供了这种机制[3]。数学上,信念更新可以被表达为在一个抽象空间中移动,这个空间被称为统计流形,其中每一点对应一个概率分布[72–77]。见图1。

这对于在任何物理或生物物理实现的人工智能系统中进行消息传递的性质施加了限制[59, 78–81]:消息必须是概率分布的充分统计或参数(即贝叶斯信念)。通过构造,这些统计包括不确定性的度量。从分布中抽取的任何变量(例如代理关于自身、环境和可能行动的信念)都与一种称为精度或逆方差的置信度度量相关联。因此,根据这些原则构建的智能工件将似乎量化其不确定性并采取行动来解决这种不确定性(正如在预测编码方案中使用注意力的部署中[82–86])。在评估数据的各种模型的证据时,不确定性量化尤其重要,通过一种称为结构学习或贝叶斯模型比较的过程[87–91]。

几种不确定性在学习数据时起作用首先,测量过程本身可能存在不可减少的噪音。此类噪音的示例包括图像中的像素模糊。其次,从数据中估计的隐藏变量的值可能是模糊的(例如,“我看到的图像是一只鸭子还是一只兔子?”或“天看起来像要下雨:我应该带把伞吗?”)。第三,模型对正在学习的函数可能存在噪音(例如,“兔子是什么样的?隐藏变量如何映射到数据?”)。克服和考虑这些不同类型的不确定性对于学习至关重要。

非概率方法在面对这些形式的不确定性时可能会遇到问题,因为它们没有在其函数的结构或参数中明确表示这些不确定性。因此,这些方法希望在不量化不确定性的情况下成功学习,这取决于具体的数据和正在学习的输出。没有专门设计为以最优方式减少不确定性的行动选择的人工智能系统将难以对其预测进行置信度分配。而且,作为这些类型人工智能系统的用户,我们无法知道它们对概率分配的置信度有多大,它们是“黑匣子”。

总的来说,概率方法为学习提供了一种规范理论——从人工智能如何处理数据和不确定性的首要原则开始。概率建模的缺点在于它引发了严重的计算挑战。具体而言,这种模型必须对模型中的所有变量进行边缘化,以得出对给定变量的确切“信念”。因此,概率推理中的主要计算任务是边缘化,而在传统的AI中是参数优化。

因此,当代人工智能研究和开发中对优化本身的关注在某种程度上可能是错误的。当前最先进的人工智能系统本质上是通用优化机器,旨在处理特定的任务领域。 但优化本身并不等同于智能。相反,在智能制品中,优化应该是一种服务于优化我们对数据产生原因的信念的方法。幸运的是,有一些数学技巧,例如变分推理,可以将(棘手的)边缘化问题转化为(容易处理的)优化问题,允许概率方法利用大量可用于优化的技术,同时保留不确定性量化的好处。

3.3 与当前最先进方法的比较

主动推理是对智能的一个非常一般的阐述,被理解为一种自组织的推理过程。然而,这种表述的一般性是综合的,而不是对抗性或排他性的:它正式关联或连接了最先进的方法(例如,已经证明所有经典神经网络都在最小化自由能;[92]),展示它们的优势,促使它们相互交叉,激发细化。

3.3.1 处理复杂性

在机器学习的背景下,从模型证据(即信息增益)中导出的复杂性术语尤其有趣[89],因为它意味着自我证明将复杂性纳入对世界的信仰的优化中,这样就能够自动解决许多仅关注准确性的机器学习方案的问题[93]。

举一个近期讨论中引人注目的例子,许多看似支持非生成方法(学习世界模型[94])的考虑源于仅考虑生成模型中的可能性,而不是模型证据或边际可能性——而包含复杂性则鼓励模型找到对观察结果进行简明解释的方式,摒弃无用的细节。换句话说,准确性是以(复杂性)成本为代价的,这个成本必须打折扣。

复杂性的最小化还涉及到降维和粗粒化的重要性,这是学习生成模型结构的明确途径之一[87]。这受到的启发是,虽然传感器数据本身是极高维度、嘈杂、不可预测、模糊且冗余的,但存在一种用其生成原因(例如,具有定义属性的物体世界)描述数据的方法,这种方法是低维度、更可预测和更不模糊的。这样的描述为手头的数据提供了一种压缩的、因此更有效的解释。因此,在扩大数据空间的同时,可能需要减小生成这些数据的潜在状态数量,以保持准确性

相关地,主动推理提供了一个有望的框架,用于学习能够解缠生成因素的表示[95],通过与可控潜在因素相关的感觉运动关联[96–98]。低维度解缠表示除了对AI系统本身在实现自己的目标方面有用之外,还比通用的潜在表示更具解释性和人类可解释性

最后,通过仅鼓励模型中包含足够解释源熵所需的复杂性或不确定性(即状态的生成分布的熵)[99],变分自由能目标满足了阿什比的所需多样性定律,同时确保系统中不存在比准确预测观察结果所需的更多复杂性。此外,对变分密度的高效因子化的需求有利于我们一直在描述的分层、多尺度系统的发展。

在这样的系统中,超阶层级水平上的模式或集合将具有一定程度的复杂性(由可用的自由度或生成因素来衡量),这是必要的,以建模该尺度上的观察。这涉及系统内部状态的变异性,足以模拟外部变异的相关来源(这也可以作为(受限制的)最大熵原则的版本来解释[100, 101]:由内部状态编码的最优“信念”在给定生成模型提供的约束的情况下是最大熵的)。但是,一个尺度上的内部状态就是较低尺度上的个体正在尝试建模的东西,因此我们应该期望在参与任何此类集体的个体之间存在多样性。同时,通过信念共享实现的社会性(这在我们要对彼此可预测的程度上是必要的)限制了多样性或熵,并且等同于一个准确性约束。在这样的系统中,信念的共享扩展了每个个体可用的证据基础(通过倾听他人,我对世界的了解就像通过直接观察一样多),但在信念的一致性和反常上内建有约束(激进或不寻常的信念可能会出现,但从定义上来说,它们不能成为人群中的常态)——因为个体既“共同推理”(作为更大模型的一部分)又“互相推理”(因为每个个体构成其他个体的外部环境)[102]。

因此,最小化复杂性(即压缩)指向了通往通用而健壮的人工智能的方向;从“大数据”到“智能数据”或基于多尺度生物智能原理的节俭数据采样的转变。这对硬件和能源效率有重要影响。由于复杂性成本伴随着热力学成本——通过朗道原理和贾尼斯基等式[43]——对任何信念更新的热力学成本都有一个下限,即使在原则上可以通过正确的更新方案实现。使用主动推理,信念更新可以以仿生效率实现,而无需传统的基于GPU的高性能计算和相应的成本

3.3.2 强化学习和主动推理

为了进行行动选择而设计的最先进的人工智能通常实现强化学习,这是一组方法,用于在一系列动作下最大化期望的奖励总和。然而,从贝叶斯的角度来看,好奇心和探索与最大化奖励一样是智能的基本组成部分。具体而言,智能的认知、探索和好奇心驱动的方面促使采取旨在减少定义模型的变量和参数的不确定性的行动;在主动推理的表述中,这分别对应于推理和学习[63, 64, 67–70]。

与上述关于自我证明的讨论一致,智能系统不应选择最大化某种任意状态相关奖励(或等效地,最小化某种任意成本函数),而应产生与其特征性(即首选的)与感知世界进行交互的方式一致的观察或感觉数据,从而与其自身的持续存在一致也就是说,智能代理应最大化其生成模型的证据。主动推理因此将奖励的概念推广,并根据“这可能发生在我身上”的可能性对每个遇到的结果(以及隐式的每个潜在状态)进行标记。这以生成模型中的先验偏好来评分。对某些种类结果的偏好是精确的(例如,不被吃或尴尬),而对其他结果的偏好可能较不明确(“我早上喜欢咖啡,但茶也不错”)。总之,偏好提供了定义“我是什么样的东西”的约束,其中更精确的偏好发挥着类似于[94]中提出的演员-评论系统中“固有成本”的角色。

从这个角度来看,贝叶斯强化学习是主动推理的一个特例,其中对所有结果的偏好都非常不明确——除了一个称为奖励的特权结果,对于该结果有非常明确的偏好。主动推理的观点将我们对智能的看法从单一主题的奖励优化问题转向了一个多重约束满足问题,其中隐含的“满足”[103]就是自我证明

3.3.3 多尺度考虑

主动推理的另一个关键区别在于其多尺度体系结构。首先,主动推理致力于时间尺度的分离,这使其能够解决人工智能研究中的关键问题。根据目前的说法,学习只是缓慢的推理,而模型选择只是缓慢的学习。所有这三个过程以相同的基本方式在嵌套的时间尺度上运行,以最大化模型证据。

其次,主动推理预测并提供描述自然中智能多尺度特性的形式主义;也可以参考[104]。尽管这通常不是机器学习研究的重点,但与这一观点一致的领域的研究包括LSTM单元的复杂内部结构[93]、在ResNeXt体系结构中跨尺度重复分割-变换-合并策略[105]、胶囊网络[106],其中个别复杂节点参与一种自组织形式,以及千脑理论,该理论说明了大脑皮层柱合作产生全局表示的过程[107],或者将受限玻尔兹曼机视为专家产品的视角[108]。

相关地,除了固定系统设计的某些超参数(例如要优化的目标函数的一般特性)之外,主动推理本身并未说明在特定系统中如何实现模型证据最大化。因此,在这一框架内的工作必须参考并参与机器学习和经验神经科学领域的持续研究。例如,预测编码是在大脑中实现主动推理的一种方式[51],并且可能在具有许多内部自由度和短时间尺度可塑性的类似系统中也适用。复杂智能的许多其他方面,包括根植于演化历史深处的相当基本的方面,可能取决于难以仅从第一原理预测的该历史的细节,例如海马/前脑回路中的机制已知能够实现空间导航和定位,可能构成神经系统的更通用的高级设计模式[109]。

3.4 Shared narratives

我们已经注意到,作为自证明的智能在本质上是透视性的,因为它涉及从特定视角(即给定一组信念)主动理解并与世界互动。重要的是,如果智能的起源确实在于通过概率边界将宇宙分割成子系统,那么智能永远不是孤立的,而总是存在于这种边界的两侧[110, 111]。一个个体模拟的世界几乎总是由其他智能体组成,这些智能体反过来也对一个个体进行建模。

这使我们回到一个洞见,即智能在某种程度上必须分布在每个智能体以及智能体存在的每个尺度上。主动推理自然是一种集体智能理论。从这种对智能的看法涌现出许多基础性问题,从沟通到文化利基建设,从心灵理论到自我 [110–114]。

根据主动推理的解释,共享目标是由共享叙事产生的,这些叙事由共享的生成模型提供 [115]。此外,在当前的分析中,某些事物应该对彼此感到好奇。

对透视和隐含的共享叙事(即生成模型或参考框架)的重要性在最近对生成式人工智能的兴奋中得到了强调[2],在这种情况下,生成式神经网络展示了再现我们向其展示的各种图片、散文或音乐的能力。这些系统的使用关键在于人工智能和自然智能之间的二元互动,从深度神经网络的训练到使用提示和生成的图像与结果的AI系统进行交换,以及随后从生成的输出中选择和分享最恰当的“再现” 在这一 paradigm 中,人工智能和人类智能之间的流动性交流的重要性可以从对提示工程的日益增长的兴趣中得到证明,即越来越自我意识和理论驱动的方法,即提示在共同创造这类系统输出中所起的作用[116],最近这种方法已经扩展到由不同的人工智能代理优化文本提示[117]。

在我们看来,一个真正智能的生成式人工智能将对我们产生好奇心,并希望知道我们可能会选择什么。简而言之,当人工智能主动向我们提问时,我们将更接近真正的智能,从自证明的角度来看。

4 从巴别塔到二进制

人类智慧和语言的共同演变,使它们相互支持,同时也受到相互支持[118, 119]。语言的核心功能是促进沟通和共享理解:语言已经被优化用于与其他智能生物共享(因为可以轻松传递的语言可以传达到更多的世代)。因此,语言促进了更复杂的互动和代理之间的共享风俗的出现,反过来又允许在多个社区尺度上进行密集的人类合作[120]。相关的是,语言为“carve nature at its joints”的方式(例如,成为对象、属性和事件)提供了一个参考,促进了对世界及其运作方式的学习。最后,它使人类能够建立一个超出任何人类个体认知能力的知识外部存储。人类既受益于这一知识存储,又为其做出贡献,就像语言本身一样,它与我们的智慧一起共同演变。

在各种文化中,我们物种的早期记录的叙述强调了共享沟通系统的惊人整合力,以及它们的反面:由于沟通不畅和缺乏相互理解而带来的混乱和混乱。这在《圣经》中的巴别塔的故事中得到了有力的说明,该故事讲述了一个强大的文明试图建造一座耸入天堂的辉煌城市。在一次神圣的干扰之后,这些崇高的愿望崩溃了,这次干扰消除了他们的共同语言,将其粉碎成了一千种无法解释的方言。在他们的混乱和误解中,他们无法完成塔,因此被驱散到了地球上共享他们区域方言的族群中。

如今,人类通过不断增加的多语能力,(无论好坏)在主导性语言(如英语)的支持下集结,以及最近日益有效的机器翻译[121]的结合来应对一个“后巴别”世界。数字计算机确实共享一个通用的或普遍的机器语言(即二进制表示)。如果情况可以在适当的机器语法中充分表示,它们可以接受数学逻辑的操作,通过形式化从而以明确的方式进行处理。在更高的层次上,可以说“矢量语”是人工智能的通用语言,因为矢量(即表示抽象空间中点的数字有序列表)构成了大多数人工智能算法的输入、输出和数据存储和检索的媒介。

矢量类似于大脑中动作电位的媒介——它们能够表示我们能想到的任何事情,但几乎所有有趣的(并且具有表征负载的)结构都位于底层动力系统的(学到的)变换和相应的过渡动力学中。通常,输出矢量空间可以被视为输入空间的嵌入或转换,矢量空间之间的映射很像语言之间的翻译。然而,矢量本身可能只提供高级语言的基本结构或媒介(类似于声音或光)。

从神经语言建模的早期就清楚,原则上可以学习到捕捉自然语言语料库中出现统计学正则性的矢量空间表示[122, 123]。尽管如此,我们缺乏一种类似于人工智能可以用来相互沟通以及与人类沟通的共同高级语言,除非是人类自然语言本身,可以通过现代语言模型与人工智能进行接口。然而,训练生成这种模型提示的强化学习代理通常生成难以理解的无意义字符串[117, 124],这表明即使大型语言模型使用英语,它们也不会以人类的方式使用或理解它;这引发了自然语言是否真的能够在没有修改的情况下扮演共享的人机语言角色的问题。

此外,尽管为了进行通信的目的需要将思想序列化为离散的令牌序列,这有助于实施我们认为对智能和复杂性本身至关重要的稀疏结构,但也可以想象一种更直接的信息传递形式,其中潜在矢量表示(或“思想”)的丰富性直接外显为数据结构。虽然当前最先进的人工智能可以学习矢量空间嵌入的语言,但人工智能之间的沟通和共享潜在空间的科学尚处于初级阶段。在很大程度上,每个人工智能必须从头开始学习如何划分世界,并且无法流畅地分享知识或与其他人工智能合作更新它。(6 一个重要的例外是大规模单片预训练模型(如BERT)的精细调整副本的激增。尽管这可能构成具有部分分歧学习历史的人工智能系统群体的一种演化形式,但这显然与我们对(可能是实时的)通信和在持久、物理定位的人工智能系统之间的相互更新的兴趣不太相关。)

我们认为,人工智能的未来演进将极大受益于对可共享性(即,收集关于本质上是社会性生物的模型的证据)的优化的关注。这可能采取一个关于如何与相关他人交流的共享外部知识存储,或者作为人工智能的共同语言的结构化通信协议的形式。一个将不同嵌入空间和在共享网络体系结构上进行人工智能间消息传递紧密联系在一起的通用框架将使人工智能代理能够学习将某些任务或预测分派给其他更专业的人工智能代理,等等。

4.1 Active inference and communication

到目前为止的一个基本主题是,任何尺度上的智能都需要一个共享的生成模型和隐含的共同基础。有许多方法来阐述这个主题,从集成学习到专家混合[108],从分布式认知到贝叶斯模型平均[125]。

想象一下有人把你锁在一个大黑房间里。作为一个自证和好奇的生物,你会被迫摸索四周以解决对你情境的不确定性。连续的触摸让你推断出房间里有一只大动物——通过感觉到的东西似乎是一条尾巴、一系列的腿,最终是一个躯干。你的行动为“我在一个有大象的房间里”这一假设产生了累积的证据。现在,想象另一种情景,你和五个朋友分布在同一个房间里,可以向彼此报告你们所感受到的。在这种情况下,你们迅速达成共识“我们在一个有大象的房间里”。在两种情况下,信念更新的机制是相似的。在第一种情况下,你积累证据并逐渐更新有关潜在状态的后验信念。在第二种情况下,跨多个个体的证据的集体同化是并行进行的。

后者是否相当于拥有一个有十二只手的大脑呢?不完全是。第二种信念更新类型依赖于一个共享的生成模型或假设空间,该模型使你能够同化另一个人的信念。例如,你们共享关于“躯干”、“腿”和“尾巴”的共同概念——关键是,你们可以使用共享语言来传达这些概念。共享生成模型允许每个代理推断其感觉的原因,并区分构成独特于世界抽样方式的原因——例如,“我正在看哪里”——和构成共享环境的原因(例如,“我正在看什么”)[5, 111, 126]。同样重要的是,任何自证的双人或集合将通过它们的互动共享一个生成模型(或至少是生成模型的某些因素)[28](参见[127, 128]以了解展示此现象的主动推理的数值实验,以及表A.1以了解相关应用)。

结果是一种共享的智能(即,一种集体的超级智能),它是由代理的集合共同产生的。在启发式上,最大化模型证据意味着尽可能地使世界可预测[129, 130]。如果我们都是出于同样的目的,那么这是确保的——这样我就可以预测你,你也可以预测我

从数学上来说,这体现为我们各自的统计流形上的动力学之间的广义同步[127, 131]。这种广义同步(或同步性)之所以特殊,是因为它在(共享的)信念空间中展开,这意味着它可以被解读为相互理解:即通过共享语言和共享生成模型来调整我们的信念。这种共享性可以说是文化的基础,并支撑着我们文明的存在。我们的挑战是,我们认为这是通向强人工智能甚至通向通用人工智能的必要步骤,是将文化领域扩展到包括人工智能代理的领域。

4.2 Belief propagation, graphs, and networks

操作层面上,共享智能的生态系统可以用消息传递在因子图上进行描述[59, 79, 132, 133],这是一种特殊的图形或网络,其中节点对应于贝叶斯信念或概率分布的因子。因子只是概率信念,将它们相乘以获得联合分布(即生成模型)。例如,可以将对对象的潜在状态的信念因子化为“是什么”和“在哪里”。这些信念共同指定了外部空间中的唯一对象;需要注意的是,知道某物是什么和知道它在哪里这两者在很大程度上是相互独立的[134]。因子图的边缘对应于在因子之间传递的消息,支持信念更新。在我们描述的主动推断的实现中,它们包括总结其他节点信念的必需统计信息。(参考:FFG节点就是神经元

从技术上讲,这是有用的,因为对于任何生成模型,都有一个二次或补充的因子图,精确定义了必需的消息传递和隐式计算架构。在我们的设置中,这种架构有一个有趣的方面:我们可以想象一个巨大的图的节点被划分为许多小的子图。其中的每一个都对应于通过传递内部消息来更新其信念的代理。相反,外部消息将对应于通过在两个或两个以上的子图(即代理或计算机)之间分布或复制某些因素来进行沟通和共享信念。这种架构的意味着原则上任何子图或代理都可以通过他人的眼睛间接地看到世界中的每个可观测现象。但是支持这种架构的生成模型的功能和结构形式是什么呢

受到人类交流的启发,世界状态的最有效(最小描述长度或最小复杂性)生成模型应该是相对简化的(即粗粒化),利用离散表示,只有在维护准确的观察记录所需的程度上才具有细粒度[135, 136]。对于这种生成模型有许多动机。首先,它与上面描述的关于物体性或个体化的方法连续,根据这种方法,个体是通过其相互作用的稀疏性来定义的。概念应该呈现出稀疏结构,既因为它们本身是“事物”(因此应该与其他相似的“事物”有稀疏连接),也因为它们是对由稀疏性特征的世界的准确表示其次,在这种情况下,信念更新可以用简单的线性运算符实现,这类似于在量子计算中找到的运算符[26, 137, 138]。此外,通过粗粒化进行的这种离散化将我们带入符号学或符号学理论[139, 140]、布尔逻辑和运算符以及与引导推理[141]相关的推理领域最后,它巧妙地处理了消息传递的形式,因为离散分布的足够统计量可以简化为给定因子的状态或水平的相对概率列表[142],使得人工智能系统能够灵活地切换上下文,并基于共享表示库迅速而自适应地从其他来源获取知识。

4.3 Intelligence at scale

在这种情境下,主动推理的一个微妙方面是选择要听取或关注哪些消息。原则上,这是一个已解决的问题 - 在简单情况下,每个代理(即子图)都积极选择提供最大期望信息增益的消息或观点[143](7参见[129],其中介绍了更复杂的情况,其中代理对特定类型的互动伙伴有偏好,导致“回音室”的形成。)。在神经生物学中,这个对应物就是注意力:选择能够解决您在特定上下文中尚不知道的事物的新闻信息。在考虑全局(因子)图中的嵌套层次结构时,这种消息传递的执行(面向行动)方面有许多有趣的方面。在这些结构中 - 以及在对大脑中层次处理的模拟中 - 较高层次的某些因子可以通过较低层次的选择来控制消息的选择[144, 145]。这促使我们探索共享智能的多尺度方面。

正在形成的画面是一个消息传递协议,通过离散信念空间图上的变分消息传递来实现。但这些消息必须包含什么呢?显然,在当前的提议中,它们必须包含足够统计量的向量;但它们还必须在与它们相关的(共享的)因子方面进行自我识别。此外,它们还必须声明它们的来源,就像大脑中的神经群体从大脑的其他部分接收具有空间地址的输入一样。

在合成环境中,这需要空间寻址,引出了一种空间消息传递协议和建模语言的概念 - 这种语言正在电气和电子工程师协会(IEEE)P2874空间Web工作组中作为开放标准开发[146]。简而言之,实现我们所设想的分布式、 emergent 和共享智能的第一步是构建下一代的建模和消息传递协议,其中包括一个适合矢量化的不可减少的空间寻址系统,并允许基于矢量的共享表示大部分人类知识

5 伦理和道德考虑

我们在讨论大规模集体智能时总结,并简要讨论相关的伦理讨论和争议。首先,重要的是要注意,由具有替代性的相同个体的蚁群等共生社会显现出的集体智能范式并不是共享智能的唯一范式,也不适用于个体节点体现复杂生成模型的系统。我们认为以上述方式发展新兴智能的网络不仅应该,而且出于架构原因必须以积极评价和保障个体的人(以及潜在的非人人物)的独特性为目标

这个想法并不新鲜。早在上世纪90年代末,即在互联网作为通信技术被广泛采用之前,人们就假设了社会的未来状态,其中个体的内在价值得到承认,部分原因是因为知识具有价值,而知识和生命是不可分割的[147] - 也就是说,每个人都有独特而独特的生活经历,因此知道其他人不知道的事情。这与我们的观念深深 resonates,即每个智能体都实现了自己存在的生成模型。我们设想的集体智能形式只能从基本上独特的、在认识和经验上多样化的代理组成的网络中产生。这种有用的观点多样性是一个复杂系统组成部分之间的功能专业化的特例。

AI伦理领域的许多讨论都集中在AI对齐问题上;即将我们的价值体系与假想的有意识的AI代理的价值体系相一致,这些代理可能表现出超级智能的形式[148–150];有关批判性讨论,请参见[151]。这可以在共情或同情能力的更广泛框架下讨论 - 也就是所谓的共情智能,涉及代理分享其生成模型的方面,以取得其他代理的视角,并以足够相似的方式理解世界,以启用协调行动。这可能需要避免不希望的平衡,例如表现出对齐的病理(例如消除健康视角的多样性)以及类似于自然界中的捕食者-猎物系统的平衡8(8我们感谢乔治·珀西瓦尔提出这些观点。)。在这样的网络结构中共享智能的出现是否意味着新的集体心智的出现是一个悬而未决的问题。

目前的AI系统在很大程度上是“黑匣子”。这种对AI设计的方法最终对其透明性、可解释性和可审计性施加了严格的限制。此外,它们与人类和其他AI进行真正合作的能力有限,因为它们缺乏采取他人视角的能力。转向多尺度主动推理提供了许多技术优势,可以帮助解决这些问题之一。其中之一是利用显式生成模型,将世界划分为离散的潜在状态,可能有助于我们识别和量化模型中的偏差。这种架构具有增强的可审计性,因为它们明确可查询且其推断可以进行法庭审查 - 使我们能够直接解决这些偏见。共享生成模型还有效地为AI配备了心灵理论,促进了透视接受,并允许真正的二元交互。

类似于大脑,具有许多层次和连接的我们提出的集体智能多尺度架构可以配备节点和层次,以实现一种集体自我监控和突显的自组织。然而,这引发了权威和权力的问题:这种设计AI的方法必须考虑到个体观点的多样性和脆弱性,以及理解和抵消潜在的权力滥用的需要。更广泛而且可能更根本的是,我们注意到我们在这里提出的AI方法并不消除与AI技术中的偏见相关的危险,特别是当这些技术在商业环境中以工业规模部署时,例如[152]。总体思想是,在具有现有权力和权威层次结构的社会中部署AI技术可能会产生问题。例如,数据中编码的歧视性偏见将导致具有不公平偏见的AI系统(例如[153]),而不管用于构建该AI的具体技术是什么。高度可能使用基于这些数据的AI技术将维持对社会偏见和可能代表未来危害的实践,其后果尚未完全知晓,或者可能无法知晓—而不管创作者的意图如何。这些担忧是有根据的,并且不能通过狭义技术手段解决。因此,可能需要一些新型社会政策、政府法规和伦理规范的组合,以确保这些新技术能够体现和反映我们最基本和持久的价值观。

我们并不悲观。自然向我们展示了在各个尺度上系统中共享智能成功的无尽示例。回顾人体的精巧设计,我们发现有丰富的例子表明嵌套智能的多元系统共同努力以寻求动态的和谐与平衡。作为一个整体系统,人体能够通过神经系统令人难以置信的协调和沟通能力实现多尺度的稳态和异稳态,使其能够适应新颖的环境条件并实时调节其需求。我们再次重申,AI的设计应受到并与这些经得起时间考验的方法和设计原则保持一致。此外,我们相信在本文中所描述的共情和共享智能类别为实现AI的最高技术和伦理目标提供了一条负责任和可取的道路,基于从第一原理出发构建智能生态系统的设计。

6 结论:我们对主动推理作为人⼯智能技术的发展阶段的建议

这份白皮书的目标是展示未来十年(及以后)人工智能领域研究与发展的愿景。我们提出了通用人工智能(AGI)和超级智能(ASI)将从互联成一个自然和人工智能的高超空间网络或生态系统中涌现。我们提出了主动推断作为一种独特适用于协同设计自然和合成意义生成生态系统的技术,其中人类是不可或缺的参与者——我们称之为共享智能。从主动推断导出的智能系统的贝叶斯机制使我们得以将智能在操作上定义为对智能体感知世界的生成模型进行证据累积的过程,也被称为自我证明。这种自我证明可以通过在(因子)图或网络上进行消息传递或信念传播来实现。主动推断非常适合这项任务,因为它导致了对集体智能的形式化描述。

我们考虑了必须开发的通信协议类型,以启用这种智能体生态系统,并认为这些考虑促使我们开发一个通用的、高超空间的建模语言和交易协议。我们认为建立这样的共同语言和协议是迈向一个自然存在和人工智能共存的生态系统的关键步骤。

最后,我们提供了一个为了共同利益而发展智能工件和消息传递方案的路线图。这个路线图受到技术成熟度水平(TRL)的启发,TRL已被欧洲委员会、国际标准化组织(ISO)和美国国家航空航天局(NASA)等机构作为理解技术研究和开发进展的框架采用。

6.1 主动推断发展阶段

S0:系统智能。这是当代先进人工智能,即通用函数逼近——从输入或感知状态映射到输出或行动状态——优化某些明确定义的值函数或(系统性)状态成本。示例包括深度学习、贝叶斯强化学习等。

S1: 感知智能。基于信念更新和传播的感知行为或基于主动推断(即优化对状态的信念,而非状态本身);其中“感知”意味着“对感官印象做出反应”[为了消除任何担忧,我们强调我们并不是说有感知能力的智能系统一定是有意识的,即具有主观意识状态的意义;例如,正如最近围绕Google的AI系统LaMDA引发的争议中所使用的那样[154]。在自由能原理的文献中,通常使用“有感性”这个词来表示“对感官印象做出反应”;例如,在[40]中。]。这包括规划作为推断;即推断能够最大化预期信息增益和期望值的行动方案,其中价值是生成模型(即世界模型)的一部分;即先验偏好。这种智能既寻求信息又寻求偏好,它本质上是好奇的。

S2: 复杂智能。基于S1定义的感知行为,其中计划基于对行动对世界状态信念的影响,而不是基于状态本身。即从“如果我这样做会发生什么?”到“如果我这样做,我将相信或知道什么?”[155, 156]。这种推断通常使用具有离散状态的生成模型,这些模型“将自然划分为其关节”;即在粗粒度表示和随后的世界模型的推断。这种智能可用模态逻辑、量子计算和范畴论来表述。这个阶段对应于有关人工智能进展的流行叙事中的“人工通用智能”。

S3: 共情(或智者)智能。将复杂的人工智能部署到识别用户和其他人工智能的性质和倾向,并因此识别(并实例化)自身的注意和性情状态;即一种具有最小自我性质的生成模型(其中包括具有心灵理论能力的生成模型)。这种智能能够从其用户和互动伙伴的角度来看待事物,它是视角的,以能够进行二元和共享视角。

S4: 共享(或超级)智能。从具有共情智能(如S3中定义)的个体和其互动伙伴或用户之间的协调中产生的集体智能,这些伙伴可能包括我们自己这样的自然智能,也可能包括其他智者工件。这个阶段大致对应于关于人工智能进展的流行叙事中的“人工超级智能”,但重要的区别在于我们认为这样的智能将从网络化的超空间中的个体之间的密集互动中产生[157],我们相信我们在此提出的方法是通向这种假设的全球规模、分布式超级智能的最有可能的途径[157].

6.2 实施

A: 理论层面。信念更新(即推理和学习)的基础是由形式化的演算(例如,贝叶斯力学)支持的,与远离平衡的开放系统的自组织物理学有明显的联系。

B: 原理证明。数学方案的软件实例,通常在经典(即冯·诺伊曼)架构上运行。

C: 大规模部署。在现实世界环境中对理论原则(即方法)进行扩展和高效的应用(例如,边缘计算、机器人技术、网络上的变分消息传递等)。

D: 生物启发硬件。在生物启发或神经形态结构上摆脱冯·诺伊曼瓶颈的实施。例如,光子学、软体机器人和(贝叶斯)信念的充分统计的消息传递。

原文 ref:

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-01-15,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 CreateAMind 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档