前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >桥接认知架构和生成模型

桥接认知架构和生成模型

作者头像
CreateAMind
发布2024-07-05 11:19:36
930
发布2024-07-05 11:19:36
举报
文章被收录于专栏:CreateAMind

Bridging Cognitive Architectures and Generative Models with Vector Symbolic Algebras用向量符号代数桥接认知架构和生成模型

https://ojs.aaai.org/index.php/AAAI-SS/article/download/27686/27459/31737

摘要

生成模型的最新发展表明,有了正确的数据集、技术、计算基础设施和网络架构,就有可能生成看似智能的输出,而不需要明确考虑底层的认知过程。生成新颖、合理的行为的能力可能对认知建模者有益。然而,由于生成模型的黑箱性质无法提供关于底层认知机制的易于解释的假设,因此对认知的洞察是有限的。另一方面,认知架构对认知的本质提出了非常强烈的假设,明确描述了推理的主题和过程。不幸的是,认知架构的形式框架可能使其难以生成新颖或创造性的输出。我们提出证明依赖某些向量符号代数(VSAs)的认知架构实际上可以自然地理解为生成模型。我们讨论了如何利用VSA表示的数据记忆形成分布,这对于构建生成模型中使用的分布是必要的。最后,我们讨论了这一研究方向的优势、挑战和未来方向。

引言

生成模型的最新发展表明,有了正确的数据集、技术、计算基础设施和网络架构,就有可能学习复杂数据和过程的分布,如图像、声音和语言(例如,Ramesh等人,2021;Mittal等人,2021;Ramesh等人,2022;Brown等人,2020;Kojima等人,2022)。从这些分布中抽取的样本可以生成看似智能的输出,而不需要明确考虑底层的认知过程。生成新颖、合理的行为的能力可能对认知建模者有益。然而,由于它们的黑箱性质不提供关于生成模型所使用的表示和功能操作的易于人类解释的假设,因此它们对认知的洞察是有限的。

另一方面,认知架构对生物体认知的本质提出了非常强烈的假设。在生成模型缺乏关于底层计算的明确陈述的情况下,认知架构明确地说明了模块化、操纵的符号、抽象以及推理机制(例如,常见的认知架构;Laird,Lebiere和Rosenbloom,2017),通常明确地将推理编入基于规则的生产系统(Anderson等人,1995)。不幸的是,许多认知架构采用的由编程语言抽象强加的结构形式可能使其难以生成新颖的输出。对符号表示的扰动需要对特定的强加结构敏感,而在生成模型中,局部平滑表示的简单扰动可以产生合理的输出。生成模型的创造力和认知架构的可读性是研究这两种方法统一的有说服力的理由,以期生成既能体现创造力又能解释性的认知假设。

向量符号代数(VSAs)可能能够弥合这一差距。VSAs是一系列统一符号和非符号数据的建模框架(Smolensky等人,2022),可用于构建可以直接转换为神经元群体的功能性认知架构,如SPAUN(Eliasmith等人,2012)。在这些框架中,数据被表示为高维向量,然后使用一组定义的操作进行操作。可以使用操作符和现有数据组成数据结构的表示,然后对其进行操作以进行类比推理、构建内容寻址存储器或与连接主义模型集成,从而实现学习。

先前的工作已经表明,某些VSAs可以用来表示概率分布(Joshi,Halseth和Kanerva,2017;Frady等人,2021;Furlong和Eliasmith,2022)。对于表示和操作符的正确选择,某些VSAs与概率有数学关系,这些向量表示的记忆近似于分布。我们提出证明依赖这些方法的认知架构实际上可以自然地理解为生成模型。

为了支持这个论点,我们首先简要概述了我们工作的VSA,并展示它与概率的关系。接下来,我们将讨论单个数据点的表示如何通过与核近似的关系而固有地成为分布。然后,我们将展示记忆如何与表示相结合,以构建输入数据的分布。鉴于记忆在认知架构中的核心地位,记忆与分布建模之间的关系构成了与生成模型的基本联系。最后,我们将讨论这些结果的意义,它们与现代生成模型的关系,使用这些特定表示的挑战,并概述未来工作的方向。

初步

VSAs和全息简化表示

VSAs(向量符号架构)是一类代数,可用于实现可以转化为神经网络的认知模型(Smolensky, Legendre, and Miyata 1992; Kanerva 1988, 2009; Plate 1995; Eliasmith 2013),这一特性在语义指针架构(SPA)中被用于构建使用尖峰神经元实现的认知架构SPAUN(Eliasmith et al. 2012)。虽然SPA可以使用不同的代数实现(Eliasmith 2013),本文主要讨论使用Plate(1995)的全息简化表示(HRRs)进行概率建模,主要关注我们称之为空间语义指针(SSPs)的连续数据表示(Komer et al. 2019; Komer 2020; Dumont and Eliasmith 2020)。下面我们简要描述HRR VSA中使用的操作,并将其与表示概率联系起来。

向量空间 我们限制自己使用单位向量,即傅里叶分量的大小均为一的向量。我们将其表示为

在之前的工作中,我们深入探讨了使用SSPs进行概率建模(Furlong和Eliasmith,2022),这使我们能够在向量空间上构建分布。在这里,我们建议它可以扩展到混合离散和连续表示,尽管我们没有为此提供严格的证明。

使用适当向量符号代数的认知架构是生成模型

我们希望在这篇论文中提出的论点是,使用某些类别的向量符号代数实现的认知架构本质上已经是生成的。我们从两个观察中得出这个推论:首先,使用向量符号架构表示的数据诱导(准)核,其次,这些表示的记忆(通常是向量和)是与概率分布有强烈数学关系的向量对象。

HRR表示意味着核函数

向量点积,用于类比推理的符号表示提出的相似性度量(Plate 1993; Eliasmith 和 Thagard 2001),同样为连续值数据提供了有意义的相似性度量。具体来说,使用SSPs表示的实数值向量数据之间的点积是sinc函数的乘积(例如,Komer 等人 2019; Voelker 2020; Dumont 和 Eliasmith 2020; Furlong, Stewart, 和 Eliasmith 2022)。也就是说,如果我们有一个问题域 X ⊆ Rm 和一个投影 ϕX : Rm → Rd,那么对于两个点 x1, x2 ∈ X:

这种关系,在Voelker (2020)的SSPs背景下给出,自然地遵循了随机傅里叶特征(Random Fourier Features, RFFs)的理论(Rahimi, Recht等人 2007)。虽然sinc函数并不常用,但它在估计概率的核方法中是可接受的(Tsybakov 2009)。同样,对于表示符号数据,点积引入了一个可接受的核。我们通过在d维超球体表面随机选择点来表示原子概念。这种表示诱导的核函数是余弦核。然而,由于点是随机生成的,两个向量彼此接近的可能性相对较低。实际上,对于集合S中的两个符号s1, s2 ∈ S,以及一个投影ϕS : S → Rd,我们可以将点积诱导的核函数写成:

以上两个结果表明,原子数据(数字向量或单个符号)表示之间的点积诱导了概率模型中可接受的核。然而,通过使用绑定和捆绑等VSA操作,我们也可以生成更复杂的表示,这表明这种公式不仅是认知模型中表示数据的一种语言,而且是一种用于在这些数据之间组合核函数的语言。我们诉诸于有效核函数的乘积和和本身是有效核函数的概念(Bishop 2006,p296),以及捆绑和绑定操作分别表示核的和和乘积。为了说明这一点,图1显示了混合空间{s0, s1}×R中编码为ϕ(s, x) = ϕS(s)⊛ϕX(x)的离散-连续点之间的相似性。当符号元素相等时,我们看到核遵循sinc函数,否则相似性看起来像噪声。图2显示了使用SSPs编码的轨迹的相似性。我们使用修改后的标准方法来表示使用HRRs(Plate 1992;Voelker等人,2021)的轨迹。

从这些观察中得出的结论是,当我们对使用这些方法编码的数据进行类比推理时,我们也在计算一个与概率有意义的值。我们接下来要展示的是,从这些表示构建的记忆本质上是概率分布。

VSA记忆是分布

当在点积下进行比较时,单个数据点本身就是(准)分布。然而,当我们将这些数据聚合到记忆中时,我们发现它们变成了可以表示数据集的对象。我们在VSA的背景下理解记忆是一个或多个编码数据的向量的加权叠加(在VSA术语中是捆绑)。在最基本的情况下,我们可以假设我们给定了一个数据集D,其中包含了从某个生成分布中提取的观测值(x1,…,xn)。我们通过简单地平均这些数据的VSA编码表示来创建一个记忆

有了这种记忆表示和其他VSA操作,人们可以操纵记忆,如条件化(通过解除绑定操作)或边缘化(通过简单的线性操作),并可以构建网络来实现其他信息理论函数在分布上(Furlong和Eliasmith,2022)。

对上述方法的一个有效批评是,它没有考虑到认知代理嵌入在时间中,必须依次进行观察和学习的事实。我们可以想象一个由低通滤波器的差分方程定义的时间记忆:

其中 γ ∈ [0, 1[ 是一个时间折扣因子。这种记忆是顺序更新的,这使得它对于嵌入时间中的代理来说更加合理,并且由于它使用的是衰减因子而不是平均值,因此它不需要事先知道整个数据集的大小。此外,它给出了一个具有时间方面的观察分布。在任何给定时间 T,该系统隐含了一个定义为:的记忆。

这意味着最近的观察结果被认为更有可能,因此如果从分布中抽取样本,它们更有可能被选中。这种结构设计是为了提高生物学的真实性,它引入了最近性偏差,这是一种在人类中观察到的现象,认知模型应该解释这一现象。

我们还可以考虑一个单独的神经元尝试学习数据的分布。受到Schölkopf等人(2001年)的启发,我们训练感知器对所有输入观察结果预测1。我们用学习率设置为1/n,训练了1个周期,其中n是数据集中的样本数量。这是一个非常人为的例子,因为它假设已知样本数量,并且每个数据点只呈现一次。随着周期数的增加,这最终将学会近似一个函数,如果样本是训练集的一部分,则返回1,否则返回0。这与Schölkopf等人的网络学习分布的支持而不是分布本身是一致的。

图3显示了通过这些方法构建记忆所学习到的分布。我们从一个一维双峰高斯混合模型中抽取了1000个观察结果,从一种模式中抽取了700个观察结果,从另一种模式中抽取了300个,然后随机洗牌观察结果。在方程(10)中描述的非时间记忆与真实的底层分布匹配得很好。在方程(16)中描述的时间记忆,提供了一个γ = 0.93。这个值被选来说明最近的观察结果如何影响学习到的分布。

所选的时间记忆过度预测了最近的观察结果,忘记了早期的,然而,当γ → 1时,它将近似非时间记忆。经过一个周期,感知器学习了一个合理的记忆近似,但需要一个微调的学习率。如果不进行详细的探索,我们可以得出结论,常见的记忆公式可以近似观察到的分布,特定的公式对学习到的分布的质量有影响,因此也影响了结果行为。

假设一种认知架构使用允许概率解释的VSAs,我们可以重新构思这种架构运作的基本单元为分布。因此,当描述在这些表示上工作的系统时,例如代表最近记忆的神经元群体,或学习分布的神经元突触权重,它们可以被理解为在学习生成模型,即数据分布的表示。此外,如果我们考虑到生物系统的必要限制,我们开始看到嵌入时间的影响,这导致认知模型偏离最优模型。

讨论

本文中使用的向量代数提供了一种表示状态的方式,统一了对符号和非符号数据、神经实现以及概率模型的推理。这种代数可以支持各种认知模型的实现,但重要的是,通过将记忆表示为高维向量表示的叠加,我们看到记忆等同于概率分布。在认知架构的标准模型的背景下,记忆——工作记忆、情景记忆和程序性记忆——是一个主要的关注对象。

优点

认知架构、生成模型和神经网络的统一化

VSAs提供了一种形式化的代数,用于实现支持认知科学家关于认知的假设的认知架构,如Eliasmith(2013)和Choo(2018)所记录。同时,VSA的向量表示很容易与神经网络接口,统一了连接主义方法与符号方法(Smolensky, Legendre, 和 Miyata 1992; Smolensky 等人 2022; Eliasmith 2013)。此外,使用SPA的研究表明,对于任何VSA语句,至少存在一个神经网络来实现该语句。最后,使用适当的VSAs的认知架构,无论是使用VSA记忆还是存储在突触权重中的记忆,都能学习它们经验的分布,这是生成模型的一个必要组成部分。

使用适当的VSAs,可以构建一个单一的模型,同时提出关于功能认知、大脑活动和结构以及不确定性表示的假设。

数据结构定义核

为复杂数据结构定义核是一个非平凡问题,但HRR表示提供了一个简单的方法来解决这个问题。在这种VSA中表示的数据支持通过点积进行类比推理,这可以转换为核函数。由于每个数据结构都意味着一个核,人类可以通过描述他们所代表的数据来轻松构建核。为复杂数据提供核的便捷访问使得构建生成模型所需的分布变得更容易。此外,因为VSAs为设计核提供了一种代数,人们可以应用核结构搜索技术(例如,Duvenaud 等人 2013)来找到更易于解释人类行为的表示。

与机器学习技术的整合

此外,概率分布表示在机器学习应用中已被证明是有益的。因为VSAs概括了核嵌入,它们可以用来实现有效的探索算法(Furlong, Stewart, 和 Eliasmith 2022)。我们还成功地将它们作为强化学习任务的表示基础,发现在基准RL任务上比深度Q网络具有更少的变异性(Bartlett 等人 2023)。

继续借鉴机器学习文献——这些表示是可微分的。因此,可以应用基于梯度的方法,甚至以任务约束的方式通过认知系统传播,以学习从感知或到运动活动的改进投影。尽管反向传播的生物学合理性是有争议的,但它无疑是一个有用的工具,采用这些技术允许它们集成到认知架构中。

挑战

资源-准确性权衡

高维表示必然需要大量的元素。在神经网络中表示这些向量需要更多的资源,因为向量的维度与表示群体中的神经元数量之间并不一定存在一一对应关系。

高维向量更受青睐,因为随机选择的向量在期望中仅是正交的——维度越高,向量间点积的方差就越低。算法可以在VSAs中被优化定义,但总是存在串扰的风险——不同随机向量之间的点积值非零。由于向量必然是有限的维度,方程(7)中的εij项对于某些向量-符号对将始终非零,尽管其大小受到向量维度的限制。因此,有动力使VSAs中的向量尽可能高维。不幸的是,向量维度的增加带来了对资源表示这些向量的更高需求。目前正在进行寻找更有效表示的工作。例如,六边形SSP(Komer等人2019; Dumont和Eliasmith 2020)通常允许使用比纯随机值更低维度的表示。此外,使用不同的神经元模型的工作可以减少表示状态所需的群体大小(例如,Frady和Sommer 2019; Orchard和Jarvis 2023)。

相反,由于有限表示导致的最优性限制提出了关于有限理性的假设。

认知模型的行为是否会随着表示维度的函数而收敛于人类行为,然后又偏离?编码方案的选择和表示资源可以产生偏离最优解的行为,即使在尝试解决被制定为优化问题的问题时也是如此。也许VSAs在算法性能方面的不足,就理解有限理性而言,是一种好处。

在线超参数估计

需要解决的一个悬而未决的问题是如何最好地拟合模型超参数。使用Glad风格的从准概率到概率的转换依赖于需要拟合给定数据集的偏差项。准确地解决这个项需要计算整个域X上的非线性积分。如果转换要顺序学习,那么偏差也必须更新。同样,长度尺度参数h依赖于数据,需要拟合到数据集。如果这个参数要在线更新,编码方案和任何学习规则都需要相应地改变。相反,如果将这些参数视为在早期发展后被固定,人们可能会尝试解释由于超参数拟合不当而导致的判断错误。

另一个考虑因素是偏差参数 b 是从准概率转换到概率的特定选择的人工产物。可能这种转换不是生物学上最合理的,或者转换本身并不是必需的——SPAUN模型并没有显式地将相似性值转换为概率,但它仍然能够复制哺乳动物大脑观察到的数据。

同样值得考虑的是,认知可能是生成性的,但并不严格地在Kolmogorov公理定义的概率空间中生成。其他准概率模型,如量子概率,违反了标准的概率公理,但在描述物理系统时是有用的。也许认知也不遵循正式的概率定义,转换是不必要的。

未来研究方向

自动化表示设计

良好的表示是机器学习的基础。到目前为止,我们主要使用手工设计表示将数据投影到VSA向量空间。在机器学习社区,特征工程是标准做法,直到深度学习展示了学习特征——在有足够的数据的情况下——可以比手工设计的特征产生更好的结果。同样,我们可以问是否有编码为VSA表达式的学习表示,这些表示优于手工方法。

高阶表示是低阶VSA对象的组合。更重要的是,它们可以被理解为关于它们组成成分的代数陈述。然后,可以将编码选择框定为寻找完成特定任务的最优或满意的表示的问题。人们可能会考虑使用允许概率解释的结构搜索技术(例如,Duvenaud等人2013;Lake, Salakhutdinov, 和 Tenenbaum 2015)来寻找更好的VSA语句以编码数据。学习VSA表示将消除手工设计特征的限制,同时保持可解释性,因为表示仍然会是VSA中的代数陈述。要将这种方法进一步推向神经合理领域,应考虑使用贝叶斯结构搜索(Kappel等人2015)作为构建复杂表示编码网络的机制。

高效采样

一个主要的研究方向是如何将这些概率表示转化为行动——对于认知模型来说,最终决策必须转化为运动计划。这需要将分布转化为代理可以采取的具体行动,这是生成模型的“生成”方面。可以想象计算任何特定分布指定的平均行动,但在双峰分布的情况下,这将表现不佳。另一种方法是通过从分布中生成样本来选择行动。

一种简单的做法是在行动中采样一些点,\( x_s \in X \),对它们进行编码,计算不同行动的概率,并选择最大值(对于多峰分布进行平局破解),或者可能从这些样本点进行贝叶斯自举。这是一种有效的采样方法,但随着行动空间的维度增加,内存需求呈指数级增长。

另一种方法是使用马尔可夫链蒙特卡洛采样方法,但在这里,VSA表示可能有一个在标准生成方法中不存在的问题。当前的生成模型在局部平滑的潜在空间中操作,其中任何向量都是空间中可能有效的点,即,变分自编码器(VAE)内部空间的小扰动或生成对抗网络(GAN)中的随机向量都可以解码为一些可能有意义的内容,即使概率很低或不受欢迎。对于我们的方法来说,情况并非如此严格:我们的表示在局部是平滑的,但它们并不是在 \( R^d \) 的每个地方都密集。对于VSA表示,更具体地说是SSPs,有效点仅在超球体的一个子集上定义。因此,任何给定点的扰动都可以快速将表示移出定义有效点的流形,导致产生要么(近似)正交的东西,或者本身就是VSA向量的加权组合,从而产生新的采样问题。

因此,使用不受流形限制的Langevin动力学可能不会产生有意义的样本。清理记忆可能在这些采样过程中有所帮助,但它们也需要定义一个代码簿来进行清理。这是使用VSA风格的生成模型而不是更标准方法的基本权衡——随机采样变得更具挑战性,但我们保留了可解释性,从数据可以使用VSA代数进行结构分析的意义上讲,网络可以更正式地进行询问。

其他方法,如归一化流,可能会导致更高效的采样技术,特别是在高维环面或球面上的流(例如,Falorsi等人2019;Rezende等人2020)。或者,可以完全省略采样。在操作生物体的背景下,可以将VSA编码的行动分布转化为特定运动计划的问题视为一个强化学习(RL)问题,学习解码最有价值的行动,这取决于行动分布的状态。然而,从发展的角度来看,这似乎是一种不寻常的公式——将运动计划转化为行动的学习发生在认知发展之后。

VSA的选择 有许多不同的VSA可供选择,每种都有相关的优点和缺点。在这项工作中,我们专门使用了Plate(1995)开发的HRR代数。虽然这项工作可以自然地转化为傅里叶全息约简表示(FHRR)(Plate原始术语中的循环向量(Plate 1995)),因为它们通过离散傅里叶变换线性相关,但并不是每个VSA都可以被概率解释。操作符和基向量的选择意味着不同的模型。

例如,使用外积(Smolensky,Legendre和Miyata 1992)或Gosmann和Eliasmith(2019)的向量导出的张量绑定的绑定可以支持整数数据的表示,但表示实值数据并不明显。此外,当使用外积进行绑定时,表示的维度会随着表示的值变大而增长。然而,配备这些绑定操作符的代数可以表示离散分布。虽然我们在这里没有进行完整的分析,但进一步研究其他VSA中不确定性的表示类型是有必要的。不同的VSA可能对不同的理论家来说是理想的,它们对概率建模的能力可能影响认知架构与生成模型的关系。

与现代生成模型的更深层次联系 通过异质联想记忆的机制,将这种表示与IF-ELSE结构合并可能会带来更多的好处。以前已经将生产系统式的公式与VSA集成在一起,提出基底神经节作为基于规则的动作选择的模型(Stewart和Eliasmith 2009;Stewart,Choo和Eliasmith 2010)。

异质联想记忆,如现代Hopfeld网络(Krotov和Hopfeld 2016),可以采用单隐藏层神经网络的形式,具有输入权重矩阵Win∈Rn×din和输出权重矩阵Wout∈Rn×dout。然后它将输入向量z转换为输出向量y:

这种公式的实用性在于它提供了一个简单的机制来整合概率规则。它还提供了一个可以以生成方式采样的动作分布。

将VSA表示与联想记忆相结合为我们提供了一种生成方法来实现规则系统,但相同的网络结构也可以用来实现自动关联的清理记忆,如Stewart,Tang和Eliasmith(2011)之前为VSA输入实现的。这两个组件是许多认知架构的基础,我们现在可以理解它们本质上是概率的。

但好处不止于此:现代Hopfeld网络与变压器网络密切相关(Ramsauer等人,2020)。变压器在序列和时间序列的生成建模中具有很高的影响力。将VSAs与联想记忆相结合产生了一个类似于支持最先进的生成模型的结构的准概率网络,值得进一步研究。

相关工作

在开发符号表示可以与概率分布相结合的框架(例如,Sigma认知架构Rosenbloom,Demski和Ustun 2016)或使用概率编程的认知模型(例如,Goodman,Tenenbaum和Contributors 2016)方面已经投入了大量的努力。虽然这不是这些模型的最初意图,但值得注意的是,它们缺乏对提出的模型的生物合理性实现的解释。

类似的担忧也适用于量子概率认知方法(Pothos和Busemeyer 2013;Busemeyer,Wang和Shiffrin 2015;Pothos和Busemeyer 2022)。然而,量子概率也是一个准概率模型,因为它不遵循Kolmogorov的所有概率公理。与上述方法一样,它依赖于将数据表示为高维或无限维希尔伯特空间中的点,使用一组向量上的操作符来实现认知模型,并依赖于一个转换(Born规则)将准概率转换为概率。之前已经有人提出,神经VSA模型可以支持量子概率模型的实现(Stewart和Eliasmith 2013)。Buse-meyer,Fakhari和Kvam(2017)探索了一种使用神经振荡器的替代方法,这让人想起了VSA建模的FHRR方法,尽管没有明确考虑这种技术。无论如何,量子概率的效用确实提出了一个问题,即严格的Kolmogorov概率是否是建模认知的最佳框架,或者也许某种其他方法可能最适合。

在机器学习传统中,核概率编程(KPP)在(Muandet等人,2017)中进行了调查,提供了一个操作表示为核均值嵌入的分布的框架,相当于我们的等式(4)。这种方法假设存在连续数据的向量嵌入,而不是通过迭代的分数绑定来构造它,并依赖于外积来表示变量绑定,类似于Smolensky,Leg-endre和Miyata(1992)以及量子概率。如上所述,选择循环卷积作为绑定函数允许向量操作保持维度。此外,通过循环卷积,嵌入的值可以在编码后更新。这一事实使得使用HRRs和尖峰神经元实现VSA算法进行同时定位和映射(SLAM)成为可能(Dumont,Orchard和Eliasmith 2022;Dumont等人,2023)。这些研究线的汇合表明,追求希尔伯特空间表示上的操作作为一种编码概率计算的机制是有用的。

结论

VSAs是一种工具,可以用来表示符号推理,同时与神经网络集成,并且本质上是概率的。这些表示成功地提供了SPAUN认知架构的功能描述。如上所述,VSAs表示的记忆本质上学习了输入的分布,这表明这些公式和生成模型之间存在联系。记忆在认知架构中的核心地位表明,VSA实现可能是统一生成模型和认知架构的一条途径。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-07-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 CreateAMind 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档