前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >AI的TCPIP协议I:超维计算(向量符号体系结构)综述,第一部分:模型和数据转换

AI的TCPIP协议I:超维计算(向量符号体系结构)综述,第一部分:模型和数据转换

作者头像
CreateAMind
发布2023-09-01 08:26:26
7290
发布2023-09-01 08:26:26
举报
文章被收录于专栏:CreateAMindCreateAMind

本文是 AGI之 概率溯因推理超越人类水平 的基础理论介绍:

超维计算(又称向量符号体系结构)综述,第一部分:模型和数据转换

丹尼斯·克莱科、德米特里·拉奇科夫斯基、叶夫根尼·奥西波夫和阿巴斯·拉希米

摘要

这两个部分的综合调查致力于一个计算框架,最常见的名称是超维计算和向量符号架构(HDC/VSA)。这两个名称都指的是一系列计算模型,这些模型使用高维分布式表示,并依靠其关键操作的代数属性来结合结构化符号表示和矢量分布式表示的优点。HDC/VSA家族中值得注意的模型是张量积表示、全息简化表示、乘加置换、二进制喷溅码和稀疏二进制分布表示,但还有其他模型。HDC/VSA是一个高度跨学科的领域,涉及计算机科学、电子工程、人工智能、数学和认知科学。这一事实使得对该地区进行全面的概述具有挑战性。然而,由于近年来加入该领域的新研究人员激增,对该领域进行全面调查的必要性变得极其重要。因此,在该领域的其他方面中,第一部分调查了重要的方面,例如:HDC/VSA的已知计算模型和各种输入数据类型到高维分布式表示的转换。本调查的第二部分[Kleyko et al., 2021c]致力于应用、认知计算和架构,以及未来工作的方向。这份调查对新人和从业者都有用。

索引词

人工智能、机器学习、超维计算、向量符号架构、分布式表示、数据结构、全息简化表示、张量积表示、加法项的矩阵绑定、二进制空间码、乘-加-置换、稀疏二进制分布式表示、稀疏块码、模块复合表示、全息简化表示的几何模拟

HDC/VSA可以克服SRs和LRs关于缺乏语义基础的问题(即,缺乏对象的直接相似性;参见第节2.1.1).HDC/VSA通过其表示中的显式相似性克服了这些问题,因为HV不必以全有或全无的方式来表示相似性。然而,这些承诺带来了设计具体转换的问题,这些转换形成各种组成结构的HV,使得它们的HV之间的相似性将反映底层对象的相似性

表1:现有HDC/VSA文献的定性评估和调查要素。

1介绍

人工智能(AI)的两种主要方法是符号方法和连接方法。符号方法通过符号及其关系来表示信息。符号AI(替代术语是Good Old-fashion AI,GOFAI)通过对这些符号的处理来解决问题或推断新知识。在另一种连接主义方法中,信息是在一个通常称为神经元的简单计算单元网络中处理的,因此连接主义方法的另一个名称是人工神经网络。本文介绍了一个起源于GOFAI和连接主义交叉点的研究领域的概况,它被称为超维度计算,HDC(这个术语是在[Kanerva, 2009])和向量符号体系结构,VSA(术语引入于[Gayler, 2003]).

为了保持一致,避免该地区以外的研究人员产生混淆,我们在提到该地区时将使用HDC/VSA的联合名称。还值得指出的是,可能最有影响力和最著名的(至少在机器学习领域)HDC/VSA模型是全息简化表示[Plate,2003]因此,这个术语也用于指该地区。然而,出于一致性的原因,我们使用HDC/VSA作为一个通用术语,而在讨论这个特定的模型时,使用全息简化表示。HDC/VSA是一系列计算模型的总称,这些模型依赖于高维随机空间的数学特性,并使用被称为超向量(HVs)的高维分布式表示1)用于数据的结构化(“符号”)表示,同时保持连接主义矢量分布式表示的优点。这为构建人工智能系统开辟了一条充满希望的道路[Levy and Gayler, 2008].

很长一段时间,HDC/VSA并没有获得人工智能社区的太多关注。然而,最近情况开始改变,VSA人权发展委员会的势头正在增强。我们将此归因于几个因素的结合,如研究团体成员的传播努力23,机器学习领域的几个成功的工程应用(例如[Sahlgren, 2005], [Rahimi et al., 2019])和认知架构[Eliasmith et al., 2012], [Rachkovskij et al., 2013].当前兴趣背后的主要驱动力是寻找传统(冯·诺依曼)计算范式替代方案的全球趋势,如神经形态和纳米尺度计算,HDC/VSA有望在其中发挥重要作用(参见[Kleyko et al., 2021a]以及其中用于透视的参考文献)。

对于新进入该领域的研究人员来说,主要的问题是以前在HDC/VSA方面的工作分散在许多地点和学科中,不容易跟踪。因此,了解该领域的最新发展水平并不容易。因此,在本文中,我们调查HDC/VSA,目的是提供该地区的广泛覆盖,这是目前所缺乏的。虽然调查旨在让更多的受众了解,但不应将其视为“最容易的切入点”。对于尚未接触HDC/VSA的任何人,在阅读本调查之前,我们强烈建议从三篇类似教程的介绍性文章开始[Kanerva, 2009], [Kanerva, 2019],以及[Neubert et al., 2019].前两者提供了该领域背后的坚实的介绍和动机,而后者侧重于在机器人的特定应用领域的背景下介绍HDC/VSA。如果有人正在寻找该领域的非常简明的高级介绍,而没有太多的技术细节,可以参考[Kanerva, 2014].最后还有一本书[Plate, 2003]全面介绍了两种特定HDC/VSA模型的基本原理(参见2.3.3 和2.3.5).而[Plate, 2003]以这两个具体模式为重点,其中提出的许多方面一般适用于人类发展中心/VSA。据我们所知,以前没有人试图对HDC/VSA进行全面的调查,但有文章概述了HDC/VSA的特定主题。table1 将这次调查的覆盖范围与以前的进行对比

1.认知科学文献中常用的另一个指代HVs的术语是“语义指针”Blouw et al., 2016].

2.HDC/VSA门户网站。【在线。]可用:https://www.hd-computing.com

3.VSAONLINE。网络研讨会系列。【在线。]可用:https://sites.google.com/ltu.se/vsaonline

文章(按时间顺序排列)。我们用来表示一篇文章部分地讨论了一个特定的主题,但是要么是从那时起报道了新的结果,要么是没有覆盖所有相关的工作。

本调查的第一部分结构如下。在截面中2,我们介绍了HDC/VSA背后的动机,它们的基本概念,并总结了目前已知的HDC/VSA模型。部分3 介绍各种数据类型到HVs的转换。讨论和结论如下4 和5,分别为。

本调查的第二部分[Kleyko et al., 2021c])将涵盖现有应用以及HDC/VSA在认知架构中的使用。

最后,由于篇幅限制,有些主题不在本次调查的范围之内。这些主题包括HDC/VSA和其他研究领域之间的联系,以及HDC/VSA的硬件实现。我们计划在另一部作品中讨论这些问题。

2向量符号架构

在本节中,我们描述了导致开发早期HDC/VSA模型的动机(第2.1),列出它们的组件(第2.2),现有HDC/VSA模型概述(第节2.3)并讨论了HVs的信息容量(第2.4).

2.1动机和基本概念

与人类发展委员会/VSA有关的想法在1980年代末和1990年代初就已经出现[Kanerva, 1988], [Mizraji, 1989], [Smolensky, 1990], [Rachkovskij and Fedoseyeva, 1990], [Plate, 1991], [Kussul et al., 1991a].在这一节中,我们首先回顾表示的类型以及它们的优缺点。然后,我们介绍了分布式表示面临的一些挑战,这些挑战被证明是激励HDC/VSA发展的激励因素。

2.1.1表示类型

2.1.1.1符号表示:

Symbolic representations 符号表示(SRs)是人类的天性,广泛应用于计算机。在SRs中,每个项目或对象都由一个符号表示。

这里,我们所说的对象指的是各种性质和复杂性的项目,例如特征、关系、物理对象、场景、它们的类别等。更复杂的符号表示可以由简单的符号表示组成

SRs自然地拥有一个组合结构,允许无限地产生许多命题/符号表达式(参见2.1.2.2 下面)。这是通过使用例如图灵机所展示的规则或程序进行合成来实现的。当然,这一过程受到内存大小的限制,但内存大小可以在不改变系统计算结构的情况下进行扩展。符号表示/系统的一个生动的例子是自然语言,其中大量的单词是由一个小字母表组成的。反过来,有限数量的单词被用来组成无限数量的句子等等。

SRs具有全有或全无的显式相似性:相同的符号具有最大的相似性,而不同的符号具有零相似性,因此被称为不相似。为了处理符号结构,需要跟踪边缘和/或匹配基础图的顶点,以例如揭示整个结构或计算相似性。因此,符号模型通常存在缩放问题,因为这种模型中的相似性搜索和推理需要复杂的顺序操作,这很快变得难以处理

在类脑计算的背景下,符号计算的传统实现的缺点是它们需要可靠的硬件[Wang et al., 2004],因为计算中的任何错误都可能导致致命的错误。总的来说,也不清楚SRs和用它们进行的计算如何在生物组织中实现,特别是考虑到它的不可靠性。

2.1.1.2连接主义表示:本地化和分布式:: localist and distributed:

在本文中,连接主义被用作与神经网络和类脑计算相关的方法的总称。有两种主要的连接主义表示:本地的和分布式的[van Gelder,1999], [Thorpe, 2003].

本地化表示(LRs)类似于SRs,因为每个对象在表示中都存在一个元素。

LRs的例子是单个神经元(节点)或单个向量分量。

有证据表明LRs可能被用于大脑(所谓的“祖母细胞”)[Quiroga et al., 2005].为了链接lr,可以创建组件之间的连接,对应于SRs中的指针。然而,构建包括已经呈现的对象的组合的组成结构需要分配(潜在地无限数量的)新的附加元素和连接,这在神经生物学上是有问题的。比如代表“abc”、“abd”、“acd”等。需要为它们引入新元素,以及“a”、“b”、“c”、“d”等之间的联系。此外,LRs与SRs一样缺乏足够的语义基础,这可以被认为是表示之间缺乏直接的显式相似性。换句话说,代表不同对象的不同神经元是不相似的,并且估计对象相似性需要额外的过程

分布式表示(DRs)的灵感来自于“全息”表示作为本地表示的替代方案的想法[Hinton et al., 1986], [Thorpe, 2003], [van Gelder, 1999], [Plate, 2006].它们被归因于

一种基于将大脑中的信息表示建模为“分布”在许多神经元上的连接主义方法。在DRs中,(有限大小的)一组神经元的状态被建模为向量,其中每个向量分量代表特定神经元的状态

DRs被定义为一种向量表示形式,其中每个对象由向量分量的子集表示,并且每个向量分量可以属于许多对象的表示。这涉及各种复杂对象的(完全分布式)表示,从基本特征或原子对象到由(分层)组合结构表示的复杂场景/对象。

在DRs中,如果不知道其他组件的状态,就无法解释表示的单个组件的状态。换句话说,在DRs中,表示的单个组件的语义通常是未定义的,这与LRs不同。

为了有用,相似对象的DRs应该是相似的(根据相应向量表示的某种相似性度量;参见第节2.2.2),从而解决SRs和LRs的语义基础问题。

DRs具有以下吸引人的特性:

高代表能力。例如,如果一个对象由D维向量的M个二进制分量表示,那么可表示对象的数量等于组合的数量,这与LRs的D/M相反;

直接访问对象的表示。可以直接处理组合结构的组合DR,而不像在SRs中那样跟踪指针,也不像在LRs中那样跟踪组件之间的连接;

相似性的显式表示。相似的对象具有相似的表示,可以通过有效计算的向量相似性度量(例如,点积、闵可夫斯基距离等)立即进行比较。);

丰富的语义基础,这是由于基于特征的表示的直接使用,以及在其矢量表示中表示特征本身的相似性的可能性;

使用成熟的方法处理矢量的可能性;

对于许多类型的DRs——恢复对象的原始表示的能力;

除了神经生物学的合理性之外,在噪音、故障和不确定性存在的情况下工作的能力。

2.1.2对传统连接主义表示的挑战

让我们考虑早期DRs面临的几个挑战,称为“叠加灾难”,例如[von der Malsburg,1986], [Rachkovskij and Kussul, 2001].在更高的层次上,由“系统性”的需求[Fodor and Pylyshyn, 1988],以及更晚,为了快速合成[Jackendoff, 2002].这些挑战导致了通过引入“绑定”操作使DRs“结构敏感”的必要性(第2.2.3.2).

2.1.2.1“叠加灾变”:

人们认为,由于叠加突变,连接主义表示不能表示层次组合结构,叠加突变表现为丢失关于结构中对象排列的信息,见von der Malsburg, 1986], [Rachkovskij and Kussul, 2001], [Rachkovskij, 2001]供讨论和参考。

在最简单的情况下,让我们激活对应于“a”和“b”的二元LR(左右?)元素,然后激活对应于“b”和“c”的二元LR元素。如果我们想同时表示“a”和“b”,以及“b”和“c”,我们激活所有三个表示:“a”、“b”、“c”。然而,现在“a”与“b”在一起,“b”与“c”在一起的信息丢失了。例如,相同的“a”、“b”、“c”激活可以通过“a”和“c”以及单个“b”来获得。如果“a”、“b”、“c”用分布式模式表示,也会出现同样的情况。

2.1.2.2福多尔&皮里申对联结主义的批评:

在[Fodor and Pylyshyn, 1988],对连接主义的批评与[Hinton et al., 1986].作者声称,联结主义缺乏生产力、系统性、组合性和推理的连贯性,而这些都是用SRs操作的系统所固有的。他们对这些直觉上吸引人的问题的定义是相当模糊和相互关联的,他们的批评局限于作者为他们的批评选择的早期特定的联结主义模型。因此,我们重申这些挑战,如[Plate, 2003]:

组成、分解和操作:元素是如何组成结构的,元素是如何从结构中提取出来的?可以使用DRs操作这些结构吗?

生产率:组成元素的一些简单规则可以产生大量不同的可能结构。如果一个系统是由相同的元素和关系组成的,那么它应该能够表示不同于它以前遇到过的任何结构吗

系统性:DR允许过程对对象的结构敏感吗?这些过程在多大程度上独立于组成结构中元素的同一性?

2.1.2.3Jackendoff对连接主义的挑战;

Jackendoff对连接主义提出了四个挑战Jackendoff, 2002],另见[Gayler, 2003]进行HDC/VSA治疗。原则上,它们与认知有关,但尤其与语言有关。总的来说,问题是如何神经例示组成结构的快速构建和转换。

挑战1。绑定问题:观察到语言表示必须使用组合表示,考虑到顺序和出现的组合。例如,相同的单词以不同的顺序和组合将产生不同的句子。

•挑战2。问题之二:同一个对象的多个实例是如何实例化的?例如,如何将“小星星”和“大星星”实例化,使它们都是星星,但又可以区分

•挑战3。变量问题:关注类型化变量。人们应该能够用变量(例如,关系的名称)和值(例如,关系的自变量)来表示模板或关系。

•挑战4。工作记忆和长期记忆中的结合:同一结合的表征在不同类型的记忆中应该是相同的。换句话说,挑战在于工作记忆和长期记忆之间界限的透明度。有人认为,语言任务需要在工作记忆和长时记忆中实例化相同的结构,这两种实例化在功能上应该是等价的。

2.1.3解决传统连接主义表示挑战的绑定

上面提出的挑战清楚地表明,组成结构的适当表示需要保存关于它们的分组和顺序的信息。例如,在SRs中,可以使用括号和符号顺序来实现这一点。出于同样的目的,DRs中需要某种绑定机制(a` la "分组括号)。

DRs中绑定的方法之一是基于组成激活的时间同步[Milner,1974], [von der Malsburg, 1986], [Shastri and Ajjanagadde, 1993], [Hummel and Holyoak, 1997].尽管这种机制在单个组合级别上可能是有用的,但是它用多层次来表示组合结构的能力是有问题的,因为它需要许多时间步骤和复杂的“编排”来表示组合结构。另一个主要问题是,这种时间表征不能立即储存在长期记忆中

消除这些问题的另一种绑定方法是在HDC/VSA中使用的所谓的联合编码方法。它的前身是[Hinton, 1981]来表示分布模式的活动单元以及张量积的各种组合[Mizraji, 1989], [Smolensky, 1990],但是,这增加了表示的维数(请参见一节中的详细信息)2.3.2).

在HDC/VSA中,绑定操作不改变DRs的维度,并且通过类似分量乘法的操作保留分组信息。此外,它不需要任何培训。这是HDC/VSA业务性质的必然结果。重要的是,用于形成利用绑定的组合结构的dr的方案产生对于相似对象而言相似的dr(即,它们考虑了对象元素的相似性、它们的分组以及在不同层级的顺序)。

总之,开发HDC/VSA的主要动机是结合早期DRs和SRs的优点,同时避免它们的缺点,以追求更有效的信息处理,并最终获得更好的人工智能系统。目标之一是解决传统连接主义表示所面临的上述挑战。下面介绍的HDC/VSA模型的特性允许在不同程度上解决这些挑战。

2.2结构敏感的分布式表示

2.2.1原子表示

当设计基于HDC/VSA的系统时,通常为给定的问题定义一组最基本的对象/项目/实体/概念/符号/标量,并给它们分配HV,这被称为原子HV。分配原子HV的过程通常被称为映射、投影、嵌入、形成或转换。为了保持一致,我们将使用转换transformation这个术语。

对于给定的问题,我们需要选择对象的原子表示,使得对象表示之间的相似性对应于我们关心的属性。其他(组合)对象的HV由原子HV形成(参见2.2.4).顾名思义,原子HV是高维向量。HV分量的值可以是二进制数、实数或复数。

在HDC/VSA的早期,大部分作品都集中在象征问题上。在使用符号的情况下,人们可以很容易地想象出许多问题,其中一个合理的假设是符号根本不相关。因此,它们的原子HV是随机生成的,并且被认为是不相似的,即,它们的预期相似性值被认为是“零”。另一方面,在许多问题中,完全随机地分配原子HV不会导致所设计系统的任何有用行为,参见第节3.2。

如上所述,在HDC/VSA中,从某种分布产生的随机独立HV用于表示被认为是独立和不相似的对象。例如,具有来自集合0,1的分量的随机生成的二进制HVs,对于密集二进制表示,1分量的概率为P1 = 1/2[Kanerva, 2009]或稀疏二进制表示[Rachkovskij, 2001或者具有固定数量的M << D个随机激活的组件。这种随机HV类似于SRs中的“符号”。然而,在Sr中引入新的符号或在LRs中引入新的节点需要改变表示的维度,而在HDC/VSA中,它们只是作为固定维度的新HV而被引入。因此HDC/VSA可以容纳具有D维HV的N个符号,使得N >> D。这是因为在高维空间中,随机选择的HV彼此伪正交。这种数学现象被称为测度的集中Ledoux, 2001].这种现象的特殊性质是随着HVs维数的增加,伪正交收敛到精确正交。这有时被称为“维度的祝福”Gorban and Tyukin, 2018].图。1 提供了双极HVs情况的直观说明。

图1:双极随机HV之间测量现象的集中。这些线对应于HVs的不同维度的余弦相似性的概率密度函数。将正态分布与2000个随机选择的HV的成对相似性进行拟合。

如果对象之间的相似性很重要,那么HV是以这样一种方式生成的,即它们的相似性表征了对象之间的相似性。HV之间的相似性通过标准向量相似性(或距离)度量来测量。

2.2.2相似性度量

2.2.3操作

不改变HV维度的叠加和绑定操作是特别令人感兴趣的,因为它们允许将相同的操作应用于它们的结果HV。但是请注意,一些应用程序可能需要改变表示的维度

2.2.3.1 Superposition 叠加:

叠加是用于形成表示几个HV的HV的最基本操作。类似于HVs所代表的神经模式的同时激活,这可以被建模为二进制HVs的析取或实值HVs的相加。请参见第节中特定实现的更多示例2.3。在HDC/VSA中,这种操作有几种名称:捆绑、叠加和相加。由于其直观的含义,下面,我们将使用术语叠加。最简单的无约束叠加(表示为s)就是:

其中f()是限制s的值的范围的函数。下面,当暗示某种标准化时,我们也将使用括号。例如,在密集二进制/双极性HV的情况下,使用通过多数规则/符号函数对分量进行二进制化。

在稀疏二元HV的情况下,它们的叠加增加了合成HV的密度。因此,存在“稀释”合成HV并保持稀疏性的操作。

叠加后,合成HV与其输入HV相似。此外,HV的叠加仍然与每个HV相似,但是相似性随着更多HV叠加在一起而降低。这可以被看作是一种非结构化的和附加的相似性保持。

2.2.3.2绑定:

如上所述,单独的叠加操作导致叠加突变(由于其关联特性),即,在叠加的递归应用期间,关于初始对象的组合的信息丢失。为了表示组成结构,需要解决这个问题。在HDC/VSA中使用绑定操作(当没有指定特定实现时表示为)作为解决方案。有两种类型的绑定:通过类似乘法的运算和通过置换运算。

乘法绑定

当两个或多个HV应该绑定在一起时,在不同的HDC/VSA模型中使用类似乘法的操作来实现绑定操作。类似乘法的绑定操作的例子是二进制HV的合取或实值HV的分量式乘法。请参考第节2.3 特定HDC/VSA模型的具体实现。[中的图1Schlegel et al., 2020]还介绍了最常用的乘法绑定的分类。

将几个输入HV绑定在一起后获得的HV取决于所有输入HV。相似的输入HV产生相似的约束HV。然而,保持相似性的方式(通常)不同于叠加操作的方式[Plate, 2000], [Rachkovskij, 2001].我们将在第2节详细讨论这一方面2.2.3.3。

在许多情况下,需要一个操作来反转绑定操作的结果。此操作称为解除绑定或释放(表示为)。它允许恢复结合的HV [Widdows and Cohen, 2015], [Gosmannand Eliasmith, 2019],例如:

这里,只有两个HV的绑定用于演示目的。一般来说,许多HV可以相互绑定。请注意,当取消绑定操作应用于HV的叠加时,结果将不会完全等于原始绑定HV。它还将包含串扰噪声;因此,在解除绑定操作之后通常会有一个清理过程(参见第节)2.2.5)以获得原始绑定HV。在某些模型中,绑定操作是自逆的,这意味着解除绑定操作与绑定操作相同。我们将在第节中详细说明如何在不同的模型中实现解绑定操作2.3。

排列装订

另一种类型的HV绑定是通过置换,这可能对应于例如对象的某个位置。我们把置换在HV上的应用记为ρ(a);如果将相同的排列应用I次作为ρi(a ),则

相应的倒数为ρI(a)。请注意,置换后的HV与原始HV不同。然而,部分置换的使用[Kussul and Baidyk, 2003], [Cohen and Widdows, 2018]允许保留一些相似性(参见3.4.1).

置换运算可以通过与相应的置换矩阵相乘来实现。置换运算的这种实现与[Gallant and Okaywe, 2013],其中矩阵乘法也用于通过给每个位置分配一个随机矩阵来进行位置绑定(第2.3.4).对于排列绑定,通过逆排列来实现解绑定。

在实践中,通常使用置换的一个特例——循环移位,因为它非常容易实现。在HDC/VSA中使用循环移位进行位置绑定最初是在[Kussul and Baidyk, 1993]用于表示2D结构(图像)和1D结构(序列)。接下来,使用排列来表示[Rachkovskij, 2001].本着类似的精神,排列被用于[Plate, 1995a], [Jones and Mewhort, 2007]以避免循环卷积的交换性(类似乘法的绑定操作的实现)。

后来[Kanerva, 2009]引入了一个原语,用于在复合HV中表示一个序列,使用相同固定排列的多个应用来表示序列中的一个位置。这个原语通过在文本中的应用而得到推广[Sahlgren et al., 2008], [Joshi et al., 2016].

2.2.3.3通过操作保持相似性:

对于叠加运算,任何输入HV对合成HV的影响是相同的,与其他输入HV无关。在绑定中,任何输入HV对结果的影响取决于所有其他输入HV。此外,叠加和绑定操作以不同的方式保持相似性。有一种非结构化相似性,它是合成HV与用作操作输入的HV的相似性。叠加操作保留了合成HV与每个叠加HV的相似性,也就是说,它保留了非结构化相似性。例如,d = a + b类似于a和b。事实上,给定一些叠加HVs性质的假设,就有可能分析HVs的信息容量(参见第2.4 详情)。

绑定操作的大多数实现不保持非结构化的相似性。然而,它们保留了结构上的相似性,也就是说,相互结合的HV的相似性。让我们考虑两个i.i.d .随机HVs和b;d = a b与d′= a′b′相似如果a与a′相似,b与b′相似。因此,绑定操作的大多数实现以乘法方式保持结构化的相似性。当a和b独立,以及a′和b′独立时,那么d到d′的相似度等于a到a′和b到b′的相似度的乘积。例如,如果a = a’,则d到d’的相似性将等于b到b’的相似性。如果a与a’不相似,由于相似性保持的乘法方式,d将与d’不相似,而不管b和b’之间的相似性。这种类型的相似性不同于叠加HVs的非结构化相似性:即使b与c不相似,d = a + b仍将与e = a + c相似。

2.2.4组成结构的表示

如第节所述2.1.1.2组成结构由对象形成,其中对象可以是原子的或组成的。原子对象是组成结构中最基本的(不可约的)元素。更复杂的组合对象由原子对象和更简单的组合对象组成。这种结构可以被认为是部分-整体的层次结构,其中较低级别的部分被递归地组合以形成较高级别的整体(参见,例如,部分中的图形的例子3.5.2).

在HDC/VSA中,使用元素的HV以及上面介绍的叠加和绑定操作,将组成结构转换成它们的HV。如中所述2.1.3通常要求相似的组成结构由相似的HV表示。从其组成HV中恢复原始表示的可能性(我们将在下一节中描述)可能是一个额外的要求。在截面中3 下面,我们将回顾形成原子HV和组成HV的许多方法。

2.2.5回收和清理

给定一个组成HV,通常希望找到构建它的特定输入HV。我们将实现这一点的过程称为恢复。这个过程也被称为解码、重建、恢复、分解、解析和检索。

为了恢复,有必要知道形成HV的(一些)输入HV的集合。该集合通常被称为字典、码本、清除存储器或项目存储器4。在其最简单的形式中,项目存储器只是一个显式存储HVs的矩阵,但是它可以被实现为例如内容可寻址关联存储器[Stewart et al.,2011].此外,最近的工作表明[Schmuck et al., 2019], [Kleyko et al., 2021b], [Eggimann et al., 2021没有必要总是明确地存储项目记忆,因为它可以很容易地重新物质化。此外,采收需要关于组成HV的结构的知识,即关于用于形成给定HV的操作的信息(参见下面的例子)。

4.在人类发展中心/VSA的范围内,[Plate, 1991项目记忆一词是在[Kanerva, 1998].

大多数HDC/VSA模型产生的合成HV与输入HV不相似,这是由于它们的绑定操作的特性。因此,为了恢复组成HV中涉及的HV,使用解绑定操作(第2.2.3.2 以上)通常是必需的。如果在形成合成HV时使用叠加操作,则在解绑定之后,所获得的HV将是要恢复的输入HV的有噪声版本(在仅使用绑定操作来形成合成HV的情况下,可以获得无噪声版本)。因此,在恢复的最后阶段使用“清除”过程,即,在项目存储器中搜索与噪声查询HV最相似的HV。对于代表有限大小的组成结构的HVs,理论上可以保证精确回收[Thomas et al., 2021].

在更复杂的设置中,不知道输入HV是a、b、c、d,但是项目存储器中的HV是

已知。因此,我们一个接一个地取出这些HV,重复上面的操作。恢复过程中可能的最后一步是从重建的HVs重新计算组成HV。重新计算的组成HV应与原始组成HV相匹配。注意,在m个HV被绑定而不是仅仅成对绑定的情况下,恢复过程变得更加复杂。如果已知其他m1 HVs,则很容易恢复绑定中使用的HV之一。它们可以简单地不受组成HV的约束。

当绑定中使用的其他HV未知时,找到用于绑定的HV的最简单方法是计算与来自项目存储器的HV的所有可能绑定的相似性。这种搜索的复杂性随着m成指数增长。然而,最近有一项工作[Kent et al., 2020], [Frady et al., 2020]提出了一种称为谐振器网络的机制来解决这个问题。

2.3HDC/VSA模型

表2:HDC/VSA模型汇总。每个模型都有自己的原子HV和操作,用于绑定和叠加,以及相似性度量。

本节概述了各种HDC/VSA模型。对于每一个模型,我们都提供了所采用的HVs的格式以及第节中介绍的基本操作的实现2.2.3 以上。桌子2 提供了模型的摘要(另请参见[Schlegel et al., 2020])5。

2.3.1HDC/VSA模型导航指南

在向读者展示每种HDC/VSA模型的细节之前,有必要对其多样性的本质进行评论,并使读者能够凭直觉选择最适合实际用途的模型。

当前HDC/VSA模型的多样性是独立研究小组和个体研究人员对主要矢量符号范式进行进化发展的结果。最初,多样性来自于不同的初始假设、神经生物学灵感的变化以及发起人的特定数学背景。因此,从历史的角度来看,选择最佳模型的候选人的问题是不适定的。最近的工作[Schlegel et al., 2020]开始在模型之间进行系统的实验比较。我们强调在这个方向上进一步研究的重要性,以促进对给定问题有意识地选择一个或另一个模型,并将HDC/VSA提高到成熟工程学科的水平。

5.注意,表中没有指定通过置换运算的绑定。这是因为它可以在任何模型中使用,即使它最初并没有被提议成为模型的一部分。在这里,我们仅限于指定不同模型的细节,但参见,例如[Schlegelet al., 2020]查看表中七种不同型号的对比2 (该工作不包括GAHRR、MCR和TPR模型)及其一些变体(HRR 2个,MAP 3个,SBDR 2个)。

然而,使用目标计算硬件视角,此时已经可以对不同模型的使用进行优先级排序。非常规计算硬件的最新发展旨在提高人工智能应用中传统冯诺依曼架构的能效。各种非常规硬件平台(参见第4.3)在超越当前标准的能效和运行速度方面做出了巨大承诺。

独立于计算硬件的类型,任何HDC/VSA模型都可以被视为算法层的抽象,因此可以用于设计计算原语,然后可以使用不同的模型将其映射到各种硬件平台[Kleyko et al., 2021a].在接下来的小节中,我们将详细介绍目前已知的HDC/VSA模型。

2.3.2张量积表示Tensor Product Representations

张量积表示模型(简而言之,TPR模型或简称TPR)是HDC/VSA中最早的模型之一。TPR模型最初是由Smolensky在[Smolensky, 1990].然而,值得注意的是,[Mizraji, 1989], [Mizraji, 1992]但却很少受到研究界的关注。原子HV是从欧几里得单位球S(D1)中均匀随机选择的向量。绑定操作是HVs的张量积(广义外积)。因此,约束HV的维度随着它们的数量呈指数增长(例如,2个约束HV具有维度D2,3个约束向量具有维度D3,等等)。向量不需要具有相同的维数。这指出了另一个重要的注意事项,即TPR模型可能或可能不被归类为HDC/VSA模型,这取决于表示的固定维度是否被认为是HDC/VSA模型的强制属性。

叠加是通过(张量)加法实现的。由于维数增加,绑定操作的递归应用具有挑战性。合成张量也依赖于HV出现的顺序。结合相似的HV将导致相似的张量。通过采用组成结构的张量积表示并从中提取感兴趣的HV来实现解绑。对于线性无关HV,精确的解绑是通过张量乘以解绑HV(s)来完成的。未绑定HV被获得为矩阵的逆矩阵的行,其中原子HV在列中。使用原子HV而不是未绑定HV来完成近似未绑定。如果原子HVs是正交的,这将导致精确的解束缚。

虽然没有指定相似性度量,但我们假设它是simcos/distEuc。

2.3.3全息简化表示Holographic Reduced Representations

全息简化表示模型(HRR)是由Plate在20世纪90年代早期开发的Plate, 1991], [Plate,1994], [Plate, 1995a].HRR模式的灵感来自斯摩棱斯基的TPR模式[Smolensky, 1990]和辛顿的“简化表述”[Hinton, 1990].注意,由于语义指针架构统一网络中HRR的使用[Elia-smith, 2013],有时HRR模型也被称为语义指针架构(SPA)。关于HRR最详细的信息来源是普拉特的书Plate, 2003].

在HRR,用于表示不同对象的原子HV是实值的,并且它们的分量是从均值为0且方差为1/D的正态分布中独立生成的。对于大的D,欧几里德范数接近1。绑定操作在两个HV(a和b)上定义,并通过循环卷积实现:

其中zj是合成HV z = a b的第j个分量。

循环卷积乘以范数,并保留输入HVs的单位范数。界限HV与输入HVs不相似。然而,相似输入HV的界限HV是相似的。解除绑定是通过绑定HV与输入HV之一的循环相关来完成的。结果会产生噪音,因此需要一个清理程序(参见第2.2.5)是必需的。在[Gosmann and Eliasmith, 2019]以获得绑定操作的另一种实现,称为向量导出转换绑定(VTB)。据称其更适合在尖峰神经元中实施,并被证明可恢复序列的HVs(用来自[Recchia et al., 2015])优于循环卷积。

叠加操作是分量相加。通常,在加法之后使用归一化来保持合成HVs的单位欧几里德范数。在HRR,叠加和束缚运算都是可交换的。相似性度量是simdot或simcos。

2.3.4加法项的矩阵绑定Matrix Binding of Additive Terms

在矩阵约束的附加条款模型(MBAT) [Gallant and Okaywe, 2013Gallant和Okaywe提出了通过矩阵-向量乘法来实现绑定操作。[Plate, 2003].通常,如果需要,它可以改变结果HV的维数。

此绑定的属性类似于大多数其他模型(HRR、MAP和BSC)的属性。特别是,相似的输入HV将导致相似的约束HV。约束HV与输入HV不相似(这一点在这里尤其明显,因为甚至HV的维度也会改变)。相似性度量是distEuc或simdot。叠加是一种分量相加,可以归一化。解除绑定可以使用角色矩阵的(伪)逆矩阵(或正方形矩阵的逆矩阵,保证用于正交矩阵,如[Tissera and McDonnell, 2014]).

为了检查特定HV是否存在于由矩阵乘法绑定的HV的总和中,该HV应该乘以矩阵,并且应该计算所得HV的相似性,并将其与相似性阈值进行比较。

2.3.5傅立叶全息简化表示 Fourier Holographic Reduced Representations

傅里叶全息简化表示模型(FHRR) [Plate, 1994], [Plate, 2003]是由Plate作为受HRR启发的模型引入的,其中HVs的分量是复数。原子HV是复值随机向量,其中每个向量分量可以被视为独立于(0,2π)上的均匀分布随机选择的角度(相量)。通常,使用每个分量的单位量级(单位HVs)。相似性度量是角度差的余弦和的平均值。绑定操作是分量式复数乘法,通常称为哈达玛乘积。解绑定通过与HV共轭绑定来实现(分量角度减法模2π)。净化程序的使用与HRR相似。

叠加是一种分量式的复数加法,其后可以是幅度归一化,使得所有分量都具有单位幅度。

2.3.6二元喷溅代码Binary Spatter Codes

二元飞溅代码模型(BSC)6 是由卡内瓦在20世纪90年代中期在一系列论文中提出的[Kanerva, 1994], [Kanerva, 1995], [Kanerva, 1996], [Kanerva, 1997].如[Plate, 1997],BSC模型可以被视为FHRR模型的特例,其中角度被限制为0°和π。在BSC中,原子HV是由0,1组成的稠密二元HV。叠加是分量相加,被阈值化(二进制化)以在合成HV中获得大约相等密度的1和0。这种运算通常被称为多数法则或多数和。它根据被加数中的0或1的数量是否更高以及例如随机地中断联系,为每个分量选择0或1。为了实现确定性的多数法则,通常会指定一个固定的随机HV,当被加数为偶数时,它会包含在叠加中。另一种方法是对第一个和最后一个被加数的邻近部分使用异或运算来打破平局Hannagan et al.,2011].

绑定是一个组件式的异或(XOR)。约束HV与输入HV不相似,但两个相似输入HV的约束HV相似。解除绑定操作也是XOR。清理程序的使用类似于上述模型。相似性度量是distHam。

2.3.7乘加置换Multiply-Add-Permute

Gayler提出的乘加置换模型Gayler, 1998]类似于BSC。在MAP模型中,原子HV是具有来自1,1的分量的密集双极HV。这比最初提出的[ 1,1]中的实值部分更常用。

绑定是组件式乘法。界限HV与输入HVs不相似。然而,两个相似输入HV的结合HV是相似的。解绑定也是组件式乘法,对于两个绑定输入HV的情况,需要知道绑定HV和其中一个输入HV。

叠加是分量相加。叠加的结果可以保持原样,使用欧几里德范数归一化,或者用符号函数二进制化为1,1,其中0分量的关系应该随机断开(但是对于特定的输入HV集是确定的)。规范化的选择取决于用例。相似性度量是simdot或simcos。

2.3.8稀疏二进制分布式表示Sparse Binary Distributed Representations

稀疏二进制分布式表示模型(SBDR) [Rachkovskij et al., 2013],也称为二进制稀疏分布码[Rachkovskij, 2001], [Rachkovskij and Kussul, 2001]是作为联想-投射神经网络的一部分出现的Kussul et al., 1991a](参见第节3.2.2 在本调查的第二部分[Kleykoet al., 2021c]).下面,我们提供一些关于SBDR的两个版本的基本块的细节:合取-析取和上下文相关的细化。

2.3.8.1合取-析取:Conjunction-Disjunction

合取-析取是最早的HDC/VSA模型之一。它使用原子HVs的二进制向量[Rachkovskijand Fedoseyeva, 1990].HVs的组件式连接被用作绑定操作。HVs的分量析取被用作叠加运算。这两种基本操作都是为两个或多个HV定义的。两种操作

6.这个缩写在最初的出版物中没有使用,但我们在这里使用它是为了与后来的文献保持一致。

产生与其来源的HVs相似的HVs。也就是说,绑定HV类似于输入HVs,不同于大多数其他已知的绑定操作,除了上下文相关的细化(见下文)。

如果两个基本操作的输入HV相似,则它们产生的HV相似。然而,相似性保持的种类是不同的,参见[Rachkovskij and Kussul, 2001].这些运算是可交换的,因此结果HV不依赖于输入HV出现的顺序。这可以通过使用例如置换HVs来容易地改变,其中一些随机置换用于表示顺序。

合成HV中1分量的概率可以由输入HV中1分量的概率来控制。稀疏HVs允许使用高效的算法,如倒排索引或自动联想记忆来进行相似性搜索。因为与输入HV的密度相比,合取降低了结果HV的密度,所以它实际上是[Hinton, 1990].同时,这种绑定的递归应用导致HVs的所有组件都被设置为零。然而,析取叠加增加了1分量的数量。因此,这些操作可以用来相互补偿(在一定程度上;见下一节)。合取-析取的修改版本保留了合成HV中1分量的密度,如以下子部分所示。

2.3.8.2上下文相关细化:Context-Dependent Thinning

Rachkovskij和Kussul提出的上下文相关细化(CDT)过程[Rachkovskij and Kussul,2001]既可以被认为是绑定操作,也可以被认为是叠加和绑定的组合。它在20世纪90年代就已经使用了[Rachkovskij and Fedoseyeva, 1990], [Kussul and Rachkovskij, 1991], [Kussul et al., 1991b], [Kussulet al., 1991a]称为“标准化”,因为它近似地保持了合成HV中1-分量的期望密度。然而,这种密度也决定了结合的“程度”或“深度”,如[Rachkovskijand Kussul, 2001].

CDT程序实现如下。首先,m个输入二进制HV通过分量析取叠加为:

其中ρk表示第k个随机排列。得到的HV的密度取决于置换-析取T的数量。如果使用许多置换-析取,我们最终从第一级得到HV,即,没有输入HV的绑定。CDT程序的描述版本被称为“加法”。在[Rachkovskij and Kussul, 2001].

CDT过程保留了关于被绑定在一起的HV的信息。所以合成HV可以和其他HV“作为一个整体”绑定。CDT过程是可交换的。它是为多个输入HV定义的。和合取-析取一样,CDT过程保留了非结构化和结构化的相似性。

注意,对于SBDR,不需要解除绑定,因为绑定HV类似于输入HVs。然而,通过重复结合HV与一些输入HV的结合,在SBDR中存在类似的解结合。

2.3.9稀疏分组码Sparse Block Codes

Laiho等人提出的稀疏分组码模型(SBC)背后的主要动机[Laiho et al., 2015], [Fradyet al., 2021b],是使用稀疏二进制HVs,如在SBDR,但是具有绑定操作,其中绑定HV与输入HVs不相似(与SBDR相反)。

类似于SBDR,SBC模型中的原子HV是稀疏的,并且是二进制的,分量从0,1开始。然而,HV具有附加结构。HV被划分成大小相等的块(HV的维数是块大小的倍数)。在每个块中,只有一个非零分量,即每个块中的活动最大程度地稀疏,如在Potts关联存储器中,参见,例如[Gritsenko et al., 2017].

在SBC中,绑定操作是为两个HV定义的,并通过循环卷积实现,循环卷积按块应用。解除绑定是通过绑定HV与输入HV之一的逐块循环相关来完成的。

叠加运算是一种分量相加。如果组合HV将被用于绑定,则可以通过仅保留每个块中具有最大幅度的分量之一有效来将其二进制化。如果有几个分量具有相同的最大幅度,则可以做出确定性的选择(例如,可以选择具有最大位置号的分量)。相似性度量是simdot或simcos。

2.3.10模块化复合表示Modular Composite Representations

模块化复合表示模型(MCR) [Snaider and Franklin, 2014]与FHRR、BSC和SBS有一些相似之处。原子HVs的分量是从某个有限范围(表示为r)均匀抽取的整数,这是MCR模型的参数。绑定操作被定义为基于组件的模加法(模值取决于范围限制),它推广了BSC中用于绑定的XOR。绑定属性与大多数其他模型相似。解绑定操作是组件式模减法。

相似性度量是曼哈顿距离的变体[Snaider and Franklin, 2014]:

叠加操作类似于FHRR。整数被解释为单位圆上的离散角度。首先,对于每个分量叠加相量(即,执行向量相加)。第二,通过将幅度设置为1并将相位设置为对应于来自定义范围的整数的最接近的相位,来归一化叠加的结果。

2.3.11全息简化表示的几何模拟 Geometric Analogue of Holographic Reduced Representations

顾名思义,全息简化表示模型(GAHRR)的几何模拟[Aerts et al.,2009](由Aerts、Czachor和De Moor提出)是作为HRR的替代模型开发的。一个早期的提议是BSC的几何模拟[Aerts et al., 2006].主要的想法是根据几何代数来重新表述HRR。绑定操作是通过几何积(外积的推广)实现的。叠加操作是分量相加。

到目前为止,GAHRR主要是一个有趣的理论成果,因为它相对于概念上更简单的模型的优势不是特别清楚,但它可能在未来变得更相关。对GAHRR感兴趣的读者可以参考原始出版物。该模型的介绍见[Aerts and Czachor, 2008], [Aerts et al., 2009], [Patyk-Lonska, 2010], [Patyk-Lonska et al., 2011b],用GAHRR表示数据结构的例子在[Patyk-Lonska, 2011b]和一些将GAHRR与其他HDC/VSA模型进行比较的实验在[Patyk-Lonska, 2011a], [Patyk-Lonska et al.,2011a].

2.4HVs的信息容量

一个有趣的问题是,可以在HVs的叠加中储存多少信息,这个问题经常被这个领域的新来者提起。这个值称为HVs的信息容量。通常假设叠加态的原子HV是随机的,并且彼此不同。换句话说,人们可以将这种叠加视为表示例如一组符号的HV。一般而言,容量取决于参数,例如项目存储器中的符号数量(表示为N)、HV的维数(D)、叠加操作的类型以及被叠加的HV的数量(m)。

容量的早期结果见[Plate, 1994], [Plate, 2003].关于BSC、MAP和MBAT中二元/双极HVs的一些想法也在[Kleyko et al., 2017], [Gallant and Okaywe, 2013].对SBDR的容量进行了分析Kleyko et al., 2018].对不同HDC/VSA模型(以及某些类型的递归神经网络)能力的最一般和最全面的分析最近在[Frady et al., 2018b].能力理论的核心思想[Frady et al., 2018b]可以由下面的场景来说明,当要恢复的HV包含来自项目存储器的有效HV和来自合成HV的一些其他元素的串扰噪声(例如,来自角色填充绑定,参见第3.1.3).从统计学上讲,我们可以把从项目记忆中恢复正确的原子HV的问题看作是一个具有两个正态分布的检测问题:击中和拒绝;其中hit对应于正确原子HV的相似性值(例如,simdot)的分布,而reject是所有其他原子HV的分布(假设所有HV都是随机的)。每个分布的特征在于其相应的均值和标准差:分别为h & σhand r& σr。给定h、σh、r和σr的值,我们可以根据下式计算检索正确原子HV的预期精度(pcorr ):

其中φ(x)是累积高斯函数,N表示项目存储器的大小。

图。2描述了从其组成HV中检索序列元素的准确性(参见第3.3)适用于三种HDC/VSA型号:BSC、MAP和FHRR。精度是凭经验或用(14).正如我们所看到的,容量理论(14)完美预测预期精度。

能力理论[Frady et al., 2018b]最近已经被扩展到预测HDC/VSA模型在分类任务中的准确性[Kleyko et al., 2020c].[Thomas et al., 2021]提出了从人类视觉系统中完美检索集合和序列的界限。近期作品[Mirus et al., 2020], [Schlegel et al., 2020]报告了对HVs容量的实证研究。这些结果中的一部分可以使用容量理论通过分析获得。此外,[Summers-Stayet al., 2018], [Frady et al., 2018b], [Kim, 2018], [Hersche et al., 2021]阐述了恢复信息的方法

图2:对于三个HDC/VSA模型,D = 256,N = 64,从HVs恢复序列的分析和经验精度相对于序列长度。报道的经验准确度是用随机初始化的项目记忆进行5次模拟的平均值。

从超出项目存储器中的标准最近邻搜索的合成HVs,达到高达1.2比特/分量的容量Hersche et al., 2021].上面的工作集中在单个HV用于存储信息的情况,但是正如在[Danihelka et al., 2016]如果使用冗余存储,可以改进HVs的解码。

3数据转换到HVS

如上所述,SRs和LRs的相似性是全有或全无:相同的符号被认为是最大相似的,而不同的符号被认为是不相似的。另一方面,由符号组成的结构(如序列、图形等)的相似性。)通常使用计算量大的过程来计算,例如编辑距离HV是矢量表示,因此依赖于简单的矢量相似性度量,可以按分量计算并立即提供结果相似性值。这也涉及组成结构的相似性。因此,例如,关系结构的相似性,考虑到它们的元素、它们的分组和顺序的相似性,可以通过测量它们的HV的相似性来估计,而不需要诸如跟随边或匹配底层图的顶点的显式分解。此外,HDC/VSA可以克服SRs和LRs关于缺乏语义基础的问题(即,缺乏对象的直接相似性;参见第节2.1.1).HDC/VSA通过其表示中的显式相似性克服了这些问题,因为HV不必以全有或全无的方式来表示相似性。然而,这些承诺带来了设计具体转换的问题,这些转换形成各种组成结构的HV,使得它们的HV之间的相似性将反映底层对象的相似性

在这一节中,我们考虑如何将各种类型的数据转换成HVs来创建这样的表示。数据类型包括符号(部分3.1.1)、集合(部分3.1.2)、角色填充绑定(部分3.1.3)、数字标量和向量(第3.2)、序列(部分3.3),2D图像(部分3.4),以及图表(第3.5).

3.1符号和集合

3.1.1符号

如第节所述2.2.1,最简单的数据类型是符号。通常,不同的符号被认为是不相似的,因此,对不同的符号使用i.i.d .随机HV是将符号转换为HV的标准方法。这种HV对应于SRs(章节2.1.1)因为在HV和它的拷贝之间的相似性最大(即,相同的符号)而两个相同的随机HV之间的相似性最小(即,不同的符号)的意义上,它们表现得像符号。

3.1.2集合

在LRs中,集合通常被表示为二进制“特征向量”,其中每个向量分量对应于所有可能符号的宇宙中的特定符号。特定集合中存在的符号由相应矢量分量中的1来表示。在多重集的情况下,特征向量的分量值是相应符号的计数器。

在HDC/VSA中,一组符号通常由符号HV的叠加形成的HV来表示。合成HV保持了与符号HV的相似性。请注意,布隆过滤器[Bloom, 1970]–一种众所周知的近似隶属度数据结构–是一种HV,其中叠加操作是通过符号的二进制HV的分量析取获得的(如在SBDR ),因此,可以被视为HDC/VSA的特殊情况[Kleyko et al.,2020b].

还要注意,原则上,乘法绑定可以用来表示集合[Mitrokhin et al., 2019], [Kleyko et al.,2020a],然而,相似性属性将完全不同于通过叠加的表示。

3.1.3角色填充绑定Role-filler bindings

角色填充绑定,也称为槽填充或键值对,是表示结构化数据记录的一种非常通用的方式。例如,在LRs中,角色(键)是组件的ID,而填充符(值)是组件的值。在HDC/VSA中,这由绑定的结果来表示。乘法绑定和置换绑定都可以使用。使用乘法绑定,角色和填充符都被转换为HV,它们被绑定在一起。当使用排列时,通常填充符由它的HV表示,而角色与一个唯一的排列或者某个固定排列应该应用于填充符的HV的次数相关联。

在乘法绑定的情况下,关联不必限于两个HV,因此,可以表示涉及更多关联的数据结构。例如,“模式”的表示[Neubert and Protzel, 2018]可能涉及绑定对应于上下文、动作、结果的三个HV7。

一组角色填充绑定由它们的HV的叠加来表示。请注意,叠加的(角色填充)HV的数量是有限的,以保留其中包含的信息,例如,如果想要恢复被叠加的HV(参见第2.2.5 和2.4).

3.2数字标量和向量 Numeric scalars and vectors

实际上,数字标量是许多任务中存在的数据类型,尤其是作为向量的组成部分。用i.i.d .随机HVs表示相近的数值不会保留原始数据的相似性。因此,当将数值数据转换为HV时,通常的要求是附近数据点的HV相似,而远处数据点的HV不相似。

我们区分了三种将数值向量转换成HVs [Rachkovskij et al., 2013]:可选(部分3.2.1)、显性感受野(节3.2.2),以及随机投影(第3.2.3).

3.2.1组合方法

为了用相似HV表示标量的接近值,应该生成相关HV,使得相似性随着标量值的差异增大而减小。

通常,标量首先被规范化到某个预先指定的范围内(例如,[0,1])。接下来,它被量化成有限的等级(级别)。由于HV具有有限的维度并且是随机的,它们只能可靠地(在相似性上有不可忽略的差异)代表有限数量的标量等级。因此,只有有限数量的等级由相关的HV表示,通常多达几十个。

用HVs表示标量的早期方案是在[Rachkovskij and Fedoseyeva, 1990]和[Smith and Stanford, 1990].这些和其他计划[Rachkovskij et al., 2005c], [Purdy, 2016]可以被认为是实现了从HV的一个组件集到另一个组件集的某种“流动”,有或没有替换。例如,“通过连接进行编码”[Rachkovskij et al., 2005c]使用两个随机的HV:一个分配给范围内的最低等级,而第二个用于表示最高等级。使用某种形式的插值来形成中间等级的HV,例如与从当前等级到最小和最大等级的距离成比例的HV部分的串联。在[]中提出了类似类型的插值Cohen et al., 2013], [Widdows and Cohen, 2015], [Kleyko et al., 2018].[中的方案Smith and Stanford, 1990]和“减法-加法”的一个[Rachkovskij et al., 2005c]从一个随机HV开始,递归翻转一些分量的值,得到以下等级的HV。这种方案在例如[Rahimi et al., 2016], [Kleyko et al., 2018],用于在分类任务中应用HDC/VSA时表示特征值。

为复数和实值HVs提出的另一种早期方案称为分数功率编码(参见[Plate, 1994]).它基于复值HVs(单位圆上的随机角度)可以(按分量)指数化为任意值的事实:

z(x) = zβx,(15)

其中z(x)是表示标量x的HV,z是称为基HV的随机HV [Frady et al., 2021a],而β是控制所得相似性核的宽度的带宽参数。这种方法既不需要在预先指定的范围内归一化标量,也不需要量化它们。分数功率编码可以立即应用于FHRR。它也用于HRR,通过使用快速傅立叶变换进行复值HV、指数运算,然后进行快速傅立叶逆变换以返回实值HV(参见[Frady et al., 2021a]了解详情)。

7.请注意[Neubert and Protzel, 2018]是基于三个角色填充绑定的叠加。

在由HVs ( [Rachkovskij and Fedoseyeva, 1990], [Stanfordand Smith, 1994], [Rachkovskij et al., 2005d],我们首先为标量(即一个数值向量的分量)形成HV。然后,对应于不同分量的值的HV被组合(通常使用叠加,但是也使用乘法绑定)以形成表示数字向量的合成HV。如果不同组件中的标量由不同的项目存储器表示,HV可以按原样叠加。有时,保存单个标量项内存更实用8,由所有组件共享。在这种情况下,在应用叠加运算之前,必须将标量的HV与其在数值向量中的分量标识相关联。这可以通过表示角色填充绑定来实现(参见3.1.3)与某种形式的绑定。

请注意,不同的方案和模型提供不同类型的相似性,例如[Rachkovskij et al., 2005d], [Thomas et al., 2021].还要注意,与分量正交的普通向量不同,可以使附近分量的角色HV相关(例如,附近的过滤组比位于远处的过滤组更相关)。

3.2.2显性感受野Explicit Receptive Fields

感受野方法通常被称为粗编码,因为一个数字向量是由该向量激活的感受野粗略表示的。有几个利用显式感受野的众所周知的方案,如Cere- bellar模型发音控制器(CMAC) [Albus, 1975],普雷格代码[Prager, 1993],以及随机子空间码(RSC) [Kussul et al., 1999], [Kussul et al., 1994],其中感受野是各种随机放置和大小的超矩形,通常仅在一些输入空间维度中。值得注意的是,这些方案形成了(稀疏的)二进制HVs。然而,类似的方法可以产生实值HV,例如,通过使用径向基函数作为感受域[Aiserman et al., 1964], [Moody and Darken, 1989].

详情和比较可在[Rachkovskij et al., 2005b], [Rachkovskij et al., 2005a].特别地,获得了由RSCs表示的输入数值向量之间的相似性函数。

3.2.3基于随机投影的方法Random projections based approach

随机投影(RP)是另一种方法,其允许通过将数值向量x乘以RP矩阵R来形成数值向量x的HV:

z = Rx,(16)

并且可能执行一些归一化、二值化和/或稀疏化。这是一种众所周知的方法,在数学和计算机科学中得到了广泛的研究Johnson and Lindenstrauss, 1984], [Indyk and Motwani,1998], [Papadimitriou et al., 2000], [Vempala, 2005], [Rachkovskij and Gritsenko, 2018].最初,RP方法用于产生较小维度的合成向量Rx的方案中(即,用于维度缩减)。这对于例如原始高维数值向量(以及simdot和distangle)的快速估计是有用的。知名应用在相似性搜索[Kaski, 1998], [Indyk and Motwani, 1998]和压缩感知[Donoho, 2006].首先,研究了具有来自正态分布的分量的随机R[Johnson andLindenstrauss, 1984], [Indyk and Motwani, 1998], [Vempala, 2005],但是对于具有来自1,+1(双极矩阵)和1,0,+1(三元和稀疏三元矩阵)的分量的RP矩阵,证明了相同的性质[Achlioptas,2003], [Li et al., 2006], [Kane and Nelson, 2014].

在HDC/VSA的背景下,使用稀疏三元矩阵的RP方法首次应用于[Kanerva et al.,2000](另请参见第节)2.2.1.1 调查第二部分[Kleyko et al., 2021c]了解详情)。在[Misuno et al., 2005b], [Misunoet al., 2005a](参见第节2.2.1 调查第二部分[Kleyko et al., 2021c]),建议将Rx的结果二进制化或三进制化(通过阈值化),这产生稀疏HVs。稀疏HVs对simcos估计值的分析于2006/2007年首次报道,随后发表在[Rachkovskij et al., 2012], [Rachkovskij, 2014], [Rachkovskij, 2015],从而使用具有稀疏三元和二元矩阵的RP。在[Dasgupta et al., 2017],稀疏二进制矩阵的RP用于扩展原始向量的维数。注意,增加原始向量的维度先前已经在机器学习分类任务中广泛使用,因为它允许线性化非线性类别边界。在[Becker et al., 2016],研究了由Rx产生的HV的阈值,并将其应用于快速(即,相对于基础中的对象数量的次线性)相似性搜索的环境中。

通常使用单个RP矩阵来形成HV,但也有一些方法依赖于使用多个RP矩阵[Ra¨sa¨nen, 2015]:z =σn λiRix,其中λi决定I RP Rix对合成HV的贡献。

RP方法的一个吸引人的特点是,它可以应用于任意维数和任意数量的分量渐变的输入向量,这与合成或感受野方法不同。[1]对使用快速成型技术形成HVs进行了一些理论分析Thomas et al., 2021].

3.3顺序

下面我们介绍几种用HVs表示序列的标准方法。这些方法包括将元素的HV与其位置HV绑定,使用置换的绑定,与上下文HV绑定,以及将HV用于n元语法。有关这些方法的概述,请参见,例如[Sokolov and Rachkovskij, 2006].

8.这种项目记忆通常被称为连续项目记忆,因为它存储相关的HV。

3.3.1元素的HV与其位置或上下文HV的绑定Binding of elements’ HVs with their position or context HVs

表示序列的标准方式之一是使用角色-填充绑定HV的叠加,其中填充是符号的HV,而角色是其位置的HV [Kussul and Rachkovskij, 1991], [Plate, 1995b], [Hannagan et al., 2011].在[Kussul and Rachkovskij, 1991],顺序由从序列符号的初始HV中选择的分量子集的权重来表示(例如,每个在前的符号由比在后的符号更多的二进制HV的1分量来表示)。在[Rachkovskij, 1990],建议从先前序列符号(上下文)的HVs中使用细化。然而,最常见的是使用i.i.d .随机HV来表示位置。避免存储不同位置的HV的方法是使用HDC/VSA模型,其中绑定操作不是自逆的。在这种情况下,序列中的绝对位置k通过将位置HV与其自身绑定k次来表示[Plate, 1992], [Plate,1995b].这样的机制被称为“轨迹关联”。当顺序形成序列表示时,轨迹关联可能是方便的,允许以递增的方式形成序列HV。然而,序列HV不保持与邻近位置的符号HV的相似性,因为位置HV不相似,因此角色填充结合HV也不相似。MBAT模式(第2.3.4)具有类似的性质,其中通过乘以随机位置矩阵来执行位置绑定。

为了使附近位置的符号彼此相似,可以使用相关位置HVs [Sokolov andRachkovskij, 2006使得例如移位的序列仍将导致它们的HV之间的高度相似性。这种方法也是在[Cohen et al., 2013], [Widdows and Cohen, 2015](参见第节3.2).2D图像的类似想法将在第节中讨论3.4.2。

此外,下一个符号的HV可以绑定到前一个符号的HV,或者绑定到前一个符号的几个(加权)HV,即实现“与上下文绑定”的方法[Rachkovskij, 1990].

3.3.2通过排列表示位置Representing positions via permutations

表示序列中位置的另一种方法是使用排列[Kussul and Baidyk, 1993], [Sahlgrenet al., 2008], [Kanerva, 2009].在组合序列符号的HV之前,通过对每个符号的HV i次(例如,ρ2(c))应用某种特定的置换来表示每个符号的阶I。

然而,这种基于置换的表示不能保持邻近位置的相同符号的相似性,因为置换不能保持置换HV和原始HV之间的相似性。为了在使用置换时保持HV的相似性,在[Kussul and Baidyk, 2003], [Cohen and Widdows, 2018],建议使用部分(相关)置换。

3.3.3序列的合成HVs Compositional HVs of sequences

一旦序列的符号与它们的位置相关联,最后一步是将序列符号的HV组合成表示整个序列的单个合成HV。有两种常见的方法来组合这些HV。

第一种方法是使用叠加运算,类似于截面集中的情况3.1.2。例如,对于序列(a,b,c,d,e ),合成HV(表示为s)为:

s = ρ0(a) + ρ1(b) + ρ2(c) + ρ3(d) + ρ4(e)。(17)

在这里,我们举例说明了通过排列来表示位置,但是其他方法的组成也是一样的。叠加操作方法的优点是可以通过测量两个序列HV的相似性来估计它们的相似性。

形成序列的组成HV的第二种方式涉及置换HV的结合,例如,上述序列表示为(表示为p):

p =ρ0(a)♀ρ1(b)♀ρ2(c)♀ρ3(d)♀ρ4(e)。(18)

这种序列表示法的优点是,它允许形成伪正交HVs,即使序列仅在一个位置不同。类似于轨迹关联,可以通过置换当前序列的HV并将其与序列中的下一个HV相加或相乘来扩展序列,因此,导致每个符号的固定计算成本。

注意,序列的组成HVs也可以是杂交性质的。例如,当通过排列来表示位置时,相邻位置中相同符号的相似性不会被保留。一种当序列中的一些符号被置换时保持相似性的方法在[Kleyko et al., 2016a],其中序列的合成HVs包括两部分:构成序列的多重符号集的表示(符号包)和符号的有序表示。第一部分被转换成HV作为多组符号(部分3.1.2)通过叠加序列中存在的所有符号的原子HV。第二部分被转换成HV作为序列,使用符号HV的排列来编码它们的顺序(部分3.3.2) .两种表示叠加在一起以获得组成HV。

3.3.4 n-grams

n元文法是一个序列的n个连续符号。在序列的n-gram表示中,提取序列的所有n-gram,有时针对不同的n。通常,形成包含n-gram统计的向量,使得其分量对应于不同的n-gram。该分量的值是相应n元语法出现的频率(计数器)。

n-grams到HV有各种各样的转换。用HVs表示多重集的可能性(第3.1.2)允许将表示n元语法统计的HV形成为各个n元语法的HV的叠加。因此,n-grams在HVs中的表示通常在以下方面有所不同:

它们区分不同的n-gram,其中“不同”意味着甚至单个唯一的符号(例如,(abc)对(abd))或者不同位置的相同符号(例如,(abc)对(ACB));

它们为相似的n-gram形成相似的HV。

为了形成不同n元文法的不同HV,可以为每个n元文法分配一个i.i.d .随机HV。然而,n元语法HV通常是从其符号的HV生成的。因此,为了节省n元文法的HV表示空间,可以使用复合HV[Rachkovskij, 1996], [Joshi et al., 2016]而不是为每个n元语法生成原子HV。因此,可以使用上述表示序列的方法。在[Rachkovskij, 1996], [Joshi et al.,2016], [Kim et al., 2020],n元符号的置换HV通过乘法绑定来绑定。或者,在[Jones and Mewhort, 2007], [Kachergis et al., 2011],HV对的乘法绑定被递归地执行,由此左边的HV对应于n元文法的已经表示的部分,而右边的HV对应于n元文法的下一个元素。左HV和右HV通过不同的固定随机排列来排列。

与上述方法相反,在[Recchia et al., 2010], [Imani et al., 2018n-gram符号的置换HV不是乘法绑定的,而是叠加的,这给出了相似n-gram的相似HV。在[Hannagan et al.,2011],还使用了对应于符号位置的HV的叠加。然而,二元模型中符号的位置(可能来自不相邻的符号)不是通过排列来指定的,而是通过与左右位置的HV的乘法绑定来指定的。

3.3.5大量 Stacks

栈可以被看作是一个序列的特例,其中元素以后进先出的方式被插入或移除。在任何给定的时刻,只有堆栈的最顶层元素可以被访问,而之前写入堆栈的元素是不可访问的,直到所有后面的元素都被移除。基于HDC/VSA的堆栈表示在[Plate, 1994], [Stewart et al., 2014], [Yerxa et al., 2018].堆栈的HV本质上是一个序列的表示,叠加操作总是将最顶端的元素移动到序列的开头。

3.42D图像

对于在HDC/VSA模型中用二维结构表示对象,例如2D图像,有许多建议。在这一节中,我们将现有的表示建议分为三组:基于排列、基于角色填充绑定和基于神经网络。

3.4.1基于排列的表示Permutation-based representations

如第节所述2.2.3.2置换通常被用作实现绑定操作的一种方式。在2D图像的上下文中,可以通过为x轴分配一个排列和为y轴分配另一个排列来使用排列[Kussul and Baidyk, 1993], [Kussul et al., 2010].实现这些置换的最简单方法是使用循环移位。然后,为了将像素值(或图像特征)的HV与其位置绑定,应用x轴置换x次,应用y轴置换y次[Mitrokhin et al., 2019], [Kleyko et al., 2020a].然后,整个图像被表示为包含像素值的所有置换HV的叠加的合成HV。表示像素(特征)值的HVs可以使用任何表示标量的方法来形成(参见3.2).因为置换的HV在上面的任何作品中都不相似,所以即使在附近位置的相同像素的值也将由不同的HV表示。

基于排列的表示缺乏相似性的问题在[Kussul and Baidyk,2003], [Kussul et al., 2006]通过使用部分置换。一些像素值HV(或者,更一般地,一些特征的HV)的置换分量的数量随着坐标变化(在一些半径内)而增加,直到完全置换。因此,在半径内,相似性降低。在半径之外,同样的过程再次重复。结果,在(x,y)处的像素值HV类似于相似性半径内附近位置的HVs。其位置被表示的特征是随机局部描述符(RLD)。例如,对于二进制图像,如果局部感受野内的一些(因不同特征而异)像素取0和1值,则检测到RLD特征。注意,RLD可以被认为是感受野方法的一个版本(节)3.2.2)并能形成代表图像的HVs,如线性感受区(LIRA)特征的情况[Kussul and Baidyk, 2004].

3.4.2基于角色填充绑定的表示Role-filler binding-based representations

在2D图像中,很自然地将像素的位置及其值表示为角色-填充符绑定,其中像素的位置HV是角色,对应于像素值的HV是填充符。类似于置换的情况,图像HV形成为包含所有角色填充结合HV的叠加的合成HV。

当涉及到像素位置HVs时,最简单的方法是将每个位置视为一个唯一的符号,以便可以为其分配一个唯一的随机HV。这种方法允许通过角色填充绑定来形成图像HV。它是在[Kelly et al., 2013], [Kleyko et al., 2017], [Manabat et al., 2019]对于实值和稠密二进制HVs和in [Kleyko et al., 2016b]对于稀疏二进制HV。然而,具有用于角色的唯一HV的方法既不强加像素位置HV之间的任何关系,也不允许在局部邻域中保持像素位置HV的相似性,这例如对于抵抗2D图像中的小变化的鲁棒性是有用的。

为了解决后一个问题,在[Kussul et al., 1992描述了一种方法,其中附近的x和y坐标的HVs

也表示为相关的HV,使用表示标量的方法(第3.2).然后,通过绑定三个HV来表示位置(x,y)中的像素值:一个表示像素在(x,y)处的值,两个表示x和y坐标本身(在[Kussul et al., 1992]).因此,相近的相似值由相似的HV表示。

移动MBAT(蒙巴特)[Gallant and Culliton, 2016]被提出来显式地保持邻近像素的HVs的相似性。如在MBAT模式中(第2.3.4),矩阵被用作角色。特别地,每个坐标(x,y)的矩阵由两个随机矩阵的加权叠加形成。因此,对于x和y,附近的坐标由相似的(相关的)矩阵表示。然后,每个(x,y)对由通过绑定(相乘)那些对应的矩阵而获得的矩阵来表示。(x,y)处的像素值通过将其HV与(x,y)的矩阵绑定来表示。最后,叠加获得的HVs。所有参与MOMBAT的HV都有实值部分。在[1]中考虑了用于BSC和稠密二元HVs的具有局部相似性保持的类似方法Burco, 2018].

分数功率编码方法(章节3.2.1)对2D形象的再现是在[Weisset al., 2016], [Frady et al., 2018a], [Komer et al., 2019].它在像素位置之间强加了一种结构,并且可以在局部邻域中保持相似性。特别地,图像HV如下形成。分别为x轴和y轴分配两个随机基本HV。为了表示x和y坐标,相应的基HV被指数化为坐标值;和z(x,y)(x,y)坐标的HV)形成为它们的结合(假设β = 1 cf .(15)):

z(x,y)= xx♀YY。(19)

最后,与像素值的HV绑定完成。在六边形坐标中基于分数功率编码的表示的变体在[Komer and Eliasmith, 2020].

3.4.3基于神经网络的表示

由于神经网络目前是处理2D图像的主要工具之一,所以使用它们来产生2D图像的HVs变得越来越普遍。这一点尤其重要,因为直接将像素值转换为HVs通常不会为解决具有竞争性能的机器学习任务提供良好的表示。例如,有一些研究[Manabat et al., 2019], [Hassan et al., 2021]直接将MNIST的2D图像转换为HVs。事实上,所报告的精度低于用例如直接应用于像素值的kNN分类器获得的精度。因此,重要的是应用一些特征提取技术(例如[Kussul and Baidyk, 2004], [Kussulet al., 2006])或者使用神经网络作为前端。

证明这一点的最早尝试之一出现在[Yilmaz, 2015b], [Yilmaz, 2015a].所提出的方法采用由输入图像引起的卷积神经网络的隐藏层之一的激活。这些激活然后被二进制化,并且二进制化的结果被用作基本细胞自动机的初始网格状态。自动机进化了几个步骤,并且先前步骤的结果被连接在一起,其结果被视为对应于图像的HV。自动机进化执行非线性特征提取,本着里拉和RLD的精神。

后来的工作使用了卷积神经网络的激活,而没有额外的细胞自动机计算。例如,在[Neubert et al., 2019], [Mitrokhin et al., 2020]使用预先训练的现成卷积神经网络Karunaratne et al., 2021网络的注意机制和损失函数是专门设计来产生具有理想特性的HVs的。例如,它指示神经网络的输出将伪正交HVs分配给来自不同类别的图像[Karunaratne et al., 2021].值得注意的是,从神经网络中获得HVs是一个相当新的方向,没有任何研究能够仔细比较从不同神经网络结构中获得的HVs。

3.5图表

3.5.1无向图和有向图

一个图,记为G,由节点和边组成。边可以是无向的,也可以是有向的。图。3 提供有向和无向图的例子。

首先,我们考虑将图简单地转换成HVs [Gayler and Levy, 2009].随机HV被分配给图中的每个节点,如下图所示。3 节点HV由字母表示(即,a表示节点“a ”,依此类推)。一;一个

注意,最后六个等式指的是CDT程序。HVs的这些类型的图形表示将在第节中进一步讨论3.1.2.2调查第二部分[Kleyko et al., 2021c]在描述HDC/VSA对类比推理的应用时。

图4:表示发作原因(咬伤(斑,简),逃跑(简,斑))的标记图的示例。

知识图的表示在[Ma et al., 2018].这项工作提出使用柯西分布来生成原子HVs,并展示了使用知识图的HVs作为神经网络的输入来推断缺失链接的任务的最新结果。

知识图的HVs也可以使用从数据中学习的节点和关系的HVs来构建,如[Nickel et al., 2016],由于HRR的可微性,这里使用了它。

3.5.3树

树是图形的一个实例,其中较低级别的节点(子节点)属于单个较高级别的节点(父节点)。因此,树可以用与上图相同的方式来表示。请参考给定的HVs转换示例,例如,在[Rachkovskij and Kussul, 2001]对于无序二叉树和in [Frady et al., 2020], [Kleyko et al.,2021a]对于有序二叉树。

4讨论

在本节中,我们仅讨论调查第一部分中涉及的HDC/VSA的一些方面。请参阅第二部分[Kleyko et al., 2021c]获得与应用领域、与神经网络的相互作用和开放问题相关的方面的广泛讨论。

4.1HDC/VSA型号之间的连接

如第节所述2.3,有几个HDC/VSA模型。目前,关于模型之间的联系还有许多未解的问题。例如,一些模型在执行乘法绑定操作(例如,循环卷积或依赖于上下文的细化过程)时使用HVs的多个分量之间的交互。其他模型(例如,傅立叶全息简化表示和二进制飞溅码)使用针对组件的乘法绑定操作。在什么情况下一个比另一个更好并不总是很清楚。因此,对乘法绑定操作之间的关系以及它们的适用范围有更原则性的理解是很重要的。例如,这方面的一个最新理论结果[Frady et al., 2021b在某些条件下,乘法-加法-置换中的乘法结合在数学上等价于张量积表示中的乘法结合。

此外,一般来说,不清楚是否存在一个最佳模型,它将支配所有其他模型,或者每个模型是否有自己的适用范围。最近的一部作品[Schlegel et al., 2020]开始在模型之间进行系统的实验比较。我们认为这方面的工作应该继续下去。最后,还有一个问题是,是否有必要寻找新的人类发展中心/VSA模式。

4.2HDC/VSA的理论基础

应当指出,人类发展中心/VSA在很大程度上是作为一个经验领域开始的。与此同时,HDC/VSA隐含地使用了众所周知的数学现象,如集中测量[Frady et al., 2021b]和随机投影[Thomas et al., 2021].

目前,需要为人类发展中心/VSA制定坚实的理论原则。我们开始在这方面看到有希望的结果。例如,最近有一种“能力理论”[Frady et al., 2018b](部分2.4),它提供了一种使用最近邻搜索来估计可以从HVs重构的信息量的方法

在项目存储器中。另一个例子是从HVs [Thomas et al., 2021].在[Frady et al., 2021bHDC/VSA中的HVs操作显示与压缩感知有关。

我们预见到,随着HDC/VSA将更多地接触理论计算机科学家,我们将看到更多的工作建立该领域的理论基础。

4.3HDC/VSA模型的硬件实现

HDC/VSA的承诺很大一部分是基于这样一个事实,即它们适合在各种非常规硬件上实现,如神经形态硬件[Frady and Sommer, 2019],内存计算[Karunaratneet al., 2020],单片3D集成硬件[Li et al., 2016], [Wu et al., 2018】等。有趣的是,在专用硬件上使用HDC/VSA的动机从一开始就存在。一个早期的例子是专门的神经计算机Kussul et al., 1991b]构建为使用稀疏二进制分布式表示进行操作。此外,硬件实现的话题最近受到了很多关注。这主要是因为深度神经网络等现代机器学习算法需要大量资源来训练和运行它们[Strubellet al., 2019].在我们看来,另一个动机来自于HDC/VSA可以被视为一个抽象算法层,因此可以用于设计计算原语,然后可以映射到各种硬件平台[Kleyko et al., 2021a].然而,HDC/VSA的硬件是一个活跃的研究领域,也是一个独立的主题,因此我们决定将其排除在本次调查的范围之外。然而,我们期望在未来的几年里,这一主题将在社区的发展中发挥重要作用。

5结论

在调查的第一部分中,我们提供了一个关于计算框架的全面报道,该框架被命名为超维度计算和向量符号架构。我们特别关注现有的超维度计算/向量符号体系结构模型以及各种类型的输入数据到超向量表示的转换。

调查的第二部分[Kleyko et al., 2021c]回顾已知的应用,触及认知建模和认知架构,并讨论开放的问题以及未来工作最有希望的方向。

参考

Achlioptas博士(2003年)。数据库友好的随机预测:约翰逊-林登施特劳斯与二进制硬币。计算机和系统科学杂志,66(4):671–687。

[Aerts和Czachor,2008年]张量积与几何积编码。物理评论A,77(012316):1–7。[Aerts等人,2006年] Aerts博士、Czachor m .和Moor博士(2006年)。二进制喷溅码的几何代数表示。arXiv:cs/0610075,

第1-5页。

[Aerts等人,2009年] Aerts,d .,Czachor,m .,和Moor,B. D. (2009年)。全息简化表示的几何模拟。数学心理学杂志,53:389–398。

[艾泽曼等人,1964年]艾泽曼,硕士,布雷弗曼,E. M .和罗佐诺尔,L. I. (1964年)。模式识别中势函数方法的理论基础。Avtomatika i Telemekhanika,25(6):917–936。

阿不思,1975年。小脑模型关节控制器(CMAC)中的数据存储。动态系统、测量与控制杂志,97(3):228–233。

[Becker等人,2016年] Becker,a .,Ducas,l .,Gama,n .,和Laarhoven,T. (2016年)。最近邻搜索的新方向及其在网格筛选中的应用。在ACM-SIAM离散算法年会(SODA)上,第10-24页。

布鲁姆,B. H. (1970)。允许误差的哈希编码中的空间/时间权衡。美国计算机学会通讯,13(7):422–426。[Blouw等人,2016年] Blouw,p .,Solodkin,e .,Thagard,p .,和Eliasmith,C. (2016年)。作为语义指针的概念:框架和计算

模型。认知科学,40(5):1128–1162。

[Burco,2018] Burco,A. (2018)。探索计算机视觉的神经符号整合架构。苏黎世联邦理工学院硕士论文。

[Cohen和Widdows,2018年] Cohen,t .和Widdows,D. (2018年)。用随机排列增强的嵌入(EARP)使神经单词嵌入有序化。在计算自然语言学习会议上,第465-475页。

[Cohen等人,2013年] Cohen,t .,Widdows,d .,Wahle,m .,和Schvaneveldt,R. W. (2013年)。正交性和正字法:将测量距离引入语义空间。国际量子相互作用研讨会(QI),计算机科学讲义第8369卷,第34-46页。

[Danihelka等人,2016年] Danihelka,I .,Wayne,g .,Uria,b .,Kalchbrenner,n .,和Graves,A. (2016年)。联想长短期记忆。在…里

机器学习国际会议(ICML),1986-1994页。

[达斯古普塔等人,2017年]达斯古普塔、史蒂文斯和纳夫拉卡(2017年)。一个基本计算问题的神经算法。科学,358(6364):793–796。

多诺霍,2006年。压缩感知。IEEE信息论汇刊,52(4):1289–1306。

[Eggimann等人,2021年] Eggimann,m .,a .,A. R .和Benini,L. (2021年)。基于5 W标准单元存储器的可配置超维计算加速器,用于始终在线的智能传感。IEEE电路与系统汇刊I:常规论文,68(10):4116–4128。

[埃利史密斯,2013年]埃利史密斯,C. (2013年)。如何建造大脑:生物认知的神经架构?牛津大学出版社。

[Eliasmith等人,2012年] Eliasmith,c .,Stewart,T. C .,Choo,x .,Bekolay,t .,DeWolf,t .,Tang,y .,和Rasmussen,D. (2012年)。大脑功能的大规模模型。科学,338(6111):1202–1205。

[福多尔和皮里申,1988年]福多尔,J. A .和皮里申,Z. W. (1988年)。联结主义与认知架构:批判性分析。认知,28(1-2):3–71。

[Frady等人,2018年a] Frady,E. P .,Kent,S. J .,卡内瓦,p .,Olshausen,B. A .,和Sommer,f . t .(2018年a)。解开作文的认知神经系统。在认知计算中,第1-3页。

[Frady等人,2020年] Frady,E. P .,Kent,S. J .,Olshausen,B. A .,和Sommer,F. T. (2020年)。谐振器网络,1:分解数据结构的高维分布式表示的有效解决方案。神经计算,32(12):2311–2331。

[Frady等人,2021年a] Frady,E. P .,Kleyko,d .,Kymn,C. J .,Olshausen,B. A .,和Sommer,f . t .(2021年a)。使用随机向量表示的函数计算。arXiv:2109.03429,第1-33页。

[Frady等人,2018年b] Frady,E. P .,Kleyko,d .和Sommer,f . t .(2018年b)。递归神经网络中的序列索引和工作记忆理论。神经计算,30:1449–1513。

[Frady等人,2021年b] Frady,E. P .,Kleyko,d .和Sommer,f . t .(2021年b)。稀疏分布表示的变量绑定:理论与应用。神经网络和学习系统汇刊,99(PP):1–14。

[Frady和Sommer,2019年] Frady,E. P .和Sommer,F. T. (2019年)。具有节奏尖峰模式的稳健计算。美国国家科学院学报,116(36):18050–18059。

[Gallant和Culliton,2016年] Gallant,S. I .和Culliton,P. (2016年)。分布式表示的位置绑定。国际图像、视觉和计算会议(ICIVC),第108-113页。

[Gallant和Okaywe,2013] Gallant,S. I .和Okaywe,T. W. (2013)。表示对象、关系和序列。神经计算,25(8):2038–2078。

[Gayler,1998] Gayler,R. W. (1998)。乘法约束、表示算子和类比。类比研究进展:来自认知、计算和神经科学的理论和数据的整合,第1-4页。

[Gayler,2003] Gayler,R. W. (2003)。向量符号架构回答了Jackendoff对认知神经科学的挑战。认知科学国际联合会议(ICCS/ASCS),第133-138页。

[Gayler和Levy,2009] Gayler,R. W .和Levy,S. D. (2009)。类比映射的分布式基础:类比研究的新前沿。在…里

类比研究的新前沿,第二届国际类比会议(类比),165-174页。

[Ge和Parhi,2020年] Ge,l .和Parhi,K. K. (2020年)。使用超维度计算的分类:综述。IEEE电路与系统杂志,20(2):30–47。

[戈尔班和秋金,2018]戈尔班,A. N .和秋金,I. Y. (2018)。数据统计物理学的数学基础。皇家学会哲学汇刊A:数学、物理和工程科学,376(2118):1–18。

[Gosmann和Eliasmith,2019年] Gosmann,j .和Eliasmith,C. (2019年)。向量导出变换绑定:神经网络中深度类符号处理的改进绑定操作。神经计算,31(5):849–869。

[Gritsenko等人,2017年] Gritsenko,V. I .,Rachkovskij,D. A .,弗罗洛夫,A. A .,Gayler,R. W .,Kleyko,d .,Osipov,E. (2017年)。神经分布式自动联想记忆:综述。控制论与计算机工程,2(188):5–35。

[Hannagan等人,2011年]t . Hanna gan、e . Dupoux和a . Christophe(2011年)。全息字符串编码。认知科学,35(1):79–118。[哈桑等人,2021年]哈桑、哈拉瓦尼、穆罕默德和萨利赫(2021年)。超维度计算的挑战和机遇

人工智能应用的纽带。IEEE访问,第1–15页。

[Hersche等人,2021年] Hersche,m .,Lippuner,s .,Korb,m .,Benini,l .,和Rahimi,A. (2021年)。高维空间中的共生交流和分类。大脑信息学,8:1–15。

[辛顿,1981]辛顿,通用电气公司(1981)。在并行硬件中实现语义网络。《联想记忆的平行模型》,第191-217页。厄尔鲍姆联合公司。

[辛顿,1990年]辛顿,通用电气(1990年)。将部分-整体层次映射到连接主义网络。人工智能,46(1-2):47–75。

[辛顿等人,1986年]辛顿,麦克莱兰,法学博士,鲁梅尔哈特,设计工程师(1986年)。分布式表示。《并行分布式处理:认知微观结构的探索:基础》,第77-109页。

[胡梅尔和霍利奥克,1997年]胡梅尔,J. E .和霍利奥克,K. J. (1997年)。结构的分布式表示:类比存取和映射理论。心理评论,104(3):427–466。

[Imani等人,2018年] Imani,m .,Nassar,t .,Rahimi,a .,和Rosing,T. (2018年)。HDNA:使用超维度计算的节能DNA测序。IEEE生物医学和健康信息学国际会议(BHI),第271-274页。

[Indyk和Motwani,1998年]近似最近邻:走向消除维数灾难。

在年度ACM计算理论研讨会上(STOC),604-613页。

[Jackendoff,2002年]大脑,意义,语法,进化。牛津大学出版社。

[约翰逊和林登·施特劳斯,1984年]李普希茨映射到希尔伯特空间的扩张。当代数学,26:189–206。

琼斯和米沃特,2007年。在合成全息词典中表示词义和顺序信息。心理评论,114(1):1–37。

[乔希等人,2016年]乔希,a .,哈尔塞斯,J. T .,和卡内瓦,P. (2016年)。使用随机索引的语言几何。国际量子相互作用研讨会(QI),第265-274页。

[Kachergis等人,2011年] Kachergis,g .,Cox,G. E .,和Jones,M. N. (2011年)。OrBEAGLE:将正字法整合到词汇的全息模型中。国际人工神经网络会议(ICANN),307-314页。

凯恩和纳尔逊,2014年。稀疏约翰逊-林登施特劳斯变换。美国计算机学会杂志,61(1):1–23。[卡内瓦,1988]卡内瓦,P. (1988)。稀疏分布式内存。麻省理工学院出版社。

[卡内瓦,1994年]卡内瓦,P. (1994年)。在许多层次上对概念进行编码的喷溅代码。国际人工神经网络会议(ICANN),第226-229页。

[卡内瓦,1995年]卡内瓦,P. (1995年)。一族二进制喷溅码。国际人工神经网络会议(ICANN),第517-522页。

[卡内瓦,1996年]卡内瓦,P. (1996年)。有序K-字节组的二进制飞溅编码。国际人工神经网络会议(ICANN),计算机科学讲义第1112卷,第869-873页。

[卡内瓦,1997年]卡内瓦,P. (1997年)。完全分布式表示。《真实世界计算研讨会》(RWC),第358–365页。

[卡内瓦,1998年]卡内瓦,P. (1998年)。类比在认知计算机设计中的双重作用。类比研究进展:来自认知、计算和神经科学的理论和数据的整合,第164-170页。

[卡内瓦,2009年]卡内瓦出版社,2009年。用高维随机向量进行分布式表示的计算导论。认知计算,1(2):139–159。

[卡内瓦,2014年]卡内瓦出版社,2014年。用10000位字计算。在年度阿勒顿通信、控制和计算会议上,第1-7页。

[卡内瓦,2019]卡内瓦,P. (2019)。用高维向量计算。IEEE设计与测试,36(3):7–14。

[卡内瓦等人,2000年]卡内瓦,p .,克里斯托夫森,j .,和霍尔斯特,A. (2000年)。用于潜在语义分析的文本样本的随机索引。在…里

认知科学学会年会(CogSci),1036页。

[Karunaratne等人,2020年] Karunaratne,g .,Gallo,M. L .,切鲁比尼,g .,Benini,l .,Rahimi,a .,和Sebastian,A. (2020年)。内存中的超维计算。自然电子,3(6):327–337。

[Karunaratne等人,2021年] Karunaratne,g .,Schmuck,m .,Gallo,M. L .,切鲁比尼,g .,Benini,l .,Sebastian,a .,和Rahimi,A. (2021年)。鲁棒的高维记忆增强神经网络。自然通讯,12(1):1–12。

[卡斯基,1998年]卡斯基,S. (1998年)。随机映射降维:聚类的快速相似度计算。国际神经网络联合会议(IJCNN,第1卷,第413-418页。

[Kelly等人,2013年] Kelly,M. A .,Blostein,d .和Mewhort,D. J. K. (2013年)。全息简化表示中的编码结构。加拿大实验心理学杂志,67(2):79–93。

[Kent等人,2020年] Kent,S. J .,Frady,E. P .,Sommer,F. T .,和Olshausen,B. A. (2020年)。谐振网络,2:与基于优化的方法相比的因子分解性能和容量。神经计算,32(12):2332–2388。

[Kim,2018] Kim,H.-S. (2018)。HDM:鲁棒低功率通信的超维调制。IEEE国际通信会议(ICC),第1-6页。

[Kim等人,2020年] Kim,y .,Imani,m .,Moshiri,n .,和Rosing,T. (2020年)。GenieHD:使用超维度计算的高效DNA模式匹配加速器。在设计中,自动化测试在欧洲会议展览(日期),115-120页。

[Kleyko等人,2021a] Kleyko,d .,Davies,m .,Frady,E. P .,卡内瓦,p .,Kent,S. J .,Olshausen,B. A .,Osipov,e .,Rabaey,J. M .,Rachkovskij,D. A .,Rahimi,a .,和Sommer,F. T. (2021a)。向量符号体系结构作为纳米尺度硬件的计算框架。arXiv:2106.05268,第1-28页。

[Kleyko等人,2021年b] Kleyko,d .,Frady,E. P .,和Sommer,f . t .(2021年b)。细胞自动机可以减少集体状态计算的内存需求。神经网络和学习系统汇刊,99(PP):1–13。

[Kleyko等人,2020年a] Kleyko,d .,Gayler,R. W .,和Osipov,e .(2020年a)。关于“用神经形态传感器学习感觉运动控制:走向超多维主动感知”的评论【科学机器人学第4卷第30期(2019) 1-10】。arXiv:2003.11458,第1-10页。

[Kleyko等人,2016年a] Kleyko,d .,Osipov,e .,Gayler,r . w .(2016年a)。用向量符号结构识别置换单词:剑桥机器测试。Procedia计算机科学,88:169–175。

[Kleyko等人,2016年b] Kleyko,d .、Osipov,e .和Rachkovskij,d . a .(2016年b)。用稀疏分布表示修改全息图形神经元。Procedia计算机科学,88:39–45。

[Kleyko等人,2017年] Kleyko,d .,Osipov,e .,Senior,a .,Khan,A. I .,Sekercioglu,Y. A. (2017年)。全息图形神经元:模式处理的生物启发结构。IEEE神经网络和学习系统汇刊,28(6):1250–1262。

[Kleyko等人,2021年c] Kleyko,d .,Rachkovskij,D. A .,Osipov,e .,和Rahimi,a .(2021年c)。超维度计算的综述,第二部分:应用、认知模型和挑战。arXiv,第1–36页。

[Kleyko等人,2020年b]Kleyko d .、Rahimi a .、Gayler r . w .和OSI POV e .(2020年b)。自动缩放布隆过滤器:控制真和假阳性之间的权衡。神经计算和应用,32:3675–3684。

[Kleyko等人,2018年] Kleyko,d .,Rahimi,a .,Rachkovskij,D. A .,Osipov,e .,Rabaey,J. M. (2018年)。二进制超维计算的分类和召回:选择密度和映射特征的权衡。神经网络和学习系统汇刊,29(12):5880–5898。

[Kleyko等人,2020年c] Kleyko,d .,Rosato,a .,Frady,E. P .,Panella,m .,Sommer,f . t .(2020年c)。预测神经网络精度的感知器理论。arXiv:2012.07881,第1-12页。

[Komer和Eliasmith,2020年]使用可扩展的、受生物启发的空间表示进行高效导航。在认知科学学会年会上,第1532-1538页。

[Komer等人,2019年] Komer,b .,Stewart,T. C .,Voelker,A. R .,和Eliasmith,C. (2019年)。使用分数绑定的连续空间的神经表示。在认知科学学会年会上,第2038-2043页。

[Kussul和Baidyk,1993年]联想投影神经网络中的信息编码。技术报告,报告93-3,V. M. Glushkov控制论研究所(俄文)。

[Kussul和Baidyk,2003年]手写数字识别系统中的置换编码技术。在…里

神经网络国际联合会议,第2163-2168页。

[Kussul和Baidyk,2004年]改进的手写数字识别方法在MNIST数据库上的测试。图像和视觉计算,22(12):971–981。

[Kussul等人,1994年] Kussul,E. M .,Baidyk,T. N .,Lukovich,V. V .,和Rachkovskij,D. A. (1994年)。基于随机阈值神经元的自适应高性能分类器。欧洲控制论与系统会议(EMCSR),1687-1694页。

[Kussul等人,1992年] Kussul,E. M .,Baidyk,T. N .,和Rachkovskij,D. A. (1992年)。小图像识别的神经网络。在第一次全乌克兰会议上(UkrOBRAZ),第151-153页。

[Kussul等人,2010年] Kussul,E. M .,Baidyk,T. N .和Wunsch,D. C. (2010年)。神经网络和微观力学。斯普林格。

[Kussul等人,2006年] Kussul,E. M .,Baidyk,T. N .,Wunsch,D. C .,Makeyev,o .和Martin,A. (2006年)。图像识别系统中的排列编码技术。神经网络汇刊,17(6):1566–1579。

[库苏尔和拉奇科夫斯基,1991年]多级组合神经结构与序列处理。《神经计算机和注意力:连接主义和神经计算机》,第2卷,第577-590页。

[Kussul等人,1991年a] Kussul,E. M .,Rachkovskij,D. A .,和Baidyk,t . n .(1991年a)。联想投影神经网络:架构,实现,应用。神经网络及其应用国际会议(NEURO),第463–476页。

[Kussul等人,1991年b] Kussul,E. M .,Rachkovskij,D. A .,和Baidyk,t . n .(1991年b)。联想投影神经计算机图像纹理识别研究。通过人工神经网络的智能工程系统(安妮),453-458页。

[Kussul等人,1999年] Kussul,E. M .,Rachkovskij,D. A .,和Wunsch,D. C. (1999年)。实值向量的随机子空间粗编码方案。国际神经网络联合会议(IJCNN),第1卷,第450-455页。

[莱奥等人,2015年]莱奥,m .,波伊科宁,J. H .,卡内瓦,p .,莱托宁,E. (2015年)。稀疏向量的高维计算。IEEE生物医学电路和系统会议(BioCAS),第1–4页。

勒杜,2001年。测量现象的集中。美国数学学会。

[Levy和Gayler,2008] Levy,S. D .和Gayler,R. W. (2008)。人工智能的新建筑材料。《人工普通智能》(AGI),第414-418页。

[李等人,2016年]李、h、吴、T. F、Rahimi、a、李、k-s、Rusch、m、林、c-h、徐、j-l、Sabry、M. M、Eryilmaz、S. B、Sohn、j . Chiu、w-c、陈、m-c、吴、t-t、Shieh、j-m、Yeh、w-k、Rabaey、J. M、Mitra、s和Wong、h-s . p .(2016年使用3D VRRAM内存内核的超维计算:高能效、容错语言识别的设备架构协同设计。IEEE国际电子设备会议(IEDM),第1-4页。

[李等,2006]李,p,哈斯蒂,T. J .,丘奇,K. W. (2006)。非常稀疏的随机投影。ACM知识发现和数据挖掘国际会议(SIGKDD),第287–296页。

[马等人,2018年]马,y .,希尔德布兰特,m .,特雷普,v .,拜尔,S. (2018年)。记忆和推理的整体表征。《人工智能的不确定性会议》(UAI),第1-11页。

[Manabat等人,2019年] Manabat,A. X .,Marcelo,C. R .,Quinquito,A. L .,和Alvarez,A. (2019年)。字符识别的超维计算性能分析。多媒体和通信技术国际研讨会(ISMAC),第1-5页。

[米尔纳,1974]米尔纳,P. M. (1974)。视觉形状识别模型。心理评论,81(6):521–535。

[Mirus等人,2020年] Mirus,f .,Stewart,T. C .,和Conradt,J. (2020年)。分析分布式矢量表示对空间信息编码的能力。国际神经网络联合会议(IJCNN),第1-7页。

[Misuno等人,2005年a] Misuno,I. S .、Rachkovskij,D. A .和Slipchenko,s . v .(2005年a)。反映单词语义相关性的向量和分布式表示。数学机器和系统。(俄语),3:50–66。

[Misuno等人,2005b] Misuno,I. S .、Rachkovskij,D. A .、Slipchenko,S. V .和Sokolov,A. M. (2005b)。借助向量表示搜索文本信息。编程的问题。(俄语),4:50–59。

[Mitrokhin等人,2019年] Mitrokhin,a .,Sutor,p .,Fermuller,c .,和Aloimonos,Y. (2019年)。用神经形态传感器学习感觉运动控制:走向多维主动感知。科学机器人学,4(30):1–10。

[Mitrokhin等人,2020年] Mitrokhin,a .,Sutor,p .,Summers-Stay,d .,Fermuller,c .,和Aloimonos,Y. (2020年)。符号表示和超维计算学习。机器人和人工智能前沿,第1-11页。

[米兹拉吉,1989]米兹拉吉,E. (1989)。线性分布记忆中的上下文相关联想。数学生物学通报,51:195–205。[米兹拉吉,1992年]米兹拉吉,E. (1992年)。向量逻辑:逻辑演算模糊集和系统的矩阵向量表示。公报

数学生物学,50(2):179–185。

[穆迪和达肯,1989年]局部调谐处理单元网络中的快速学习。神经计算,1(2):281–294。

[Neubert和Protzel,2018] Neubert,p .和Protzel,P. (2018)。用图式进行学习和规划的超向量表示法。在德国/奥地利人工智能联合会议上(Ku·恩斯特里希Intelligenz),计算机科学讲义第11117卷,第182-189页。[Neubert等人,2019年] Neubert,p .,Schubert,s .,和Protzel,P. (2019年)。机器人学的超维度计算导论。KI -

Ku·恩斯特利奇Intelligenz,33(4):319–330。

[Nickel等人,2016年] Nickel,m .,Rosasco,l .,和Poggio,T. (2016年)。知识图的全息嵌入。在AAAI人工智能会议上,1955-1961页。

[Papadimitriou等人,2000年] Papadimitriou,C. H .,Raghavan,p .,Tamaki,h .,Vempala,S. (2000年)。潜在语义索引:概率分析。计算机和系统科学杂志,61(2):217–235。

帕提克-隆斯卡,2010年。分布式表示的几何代数模型。在几何代数计算中,401–430页。

帕提克-隆斯卡,2011年a。全息简化表示和连续几何代数模型中按给定顺序保存信息的实验。信息学,35(4):419–427。

帕提克-隆斯卡,2011年b。在HRR和GAc中按照给定的顺序保存信息。在联邦计算机科学和信息系统会议(FedCSIS)中,第213-220页。

[Patyk-Lonska等人,2011年a] Patyk-Lonska,a .,Czachor,m .,和Aerts,d .(2011年a)。全息简化表示、原始全息简化表示和二进制飞溅码的几何模拟的比较。在联邦计算机科学和信息系统会议(FedCSIS)中,第221-228页。

[Patyk-Lonska等人,2011年b] Patyk-Lonska,a .,Czachor,m .,和Aerts,d .(2011年b)。基于几何代数的分布式表示:连续模型。信息学,35(4):407–417。

[普拉特,1991年]普拉特,T. A. (1991年)。全息简化表示:合成分布表示的卷积代数。在…里

人工智能国际联合会议(IJCAI),第30-35页。

[普拉特,1992年]普拉特,T. A. (1992年)。全息循环网络。神经信息处理系统进展,第34-41页。[普拉特,1994年]普拉特,T. A. (1994年)。分布式表示和嵌套组合结构。多伦多大学,博士论文。

[1995年a版]1995年a版。全息简化表示法。神经网络汇刊,6(3):623–641。

[Plate,1995b] Plate,T. A. (1995b)。学习在一组固定的单位激活中存储可变长度序列的网络。预印本,第1-19页。

[普拉特,1997年]普拉特,T. A. (1997年)。组合结构分布式表示方案的通用框架。《知识表示和推理的联结主义系统》,第15-34页。

[Plate,2000年] Plate,T. A. (2000年)。用分布式矢量表示法进行类比检索和处理。专家系统:国际知识工程和神经网络杂志,17(1):29–40。

[Plate,2003年] Plate,T. A. (2003年)。全息简化表征:认知结构的分布式表征。斯坦福大学:语言和信息研究中心(CSLI)。

[Plate,2006年] Plate,T. A. (2006年)。分布式表示。《认知科学百科全书》第1-9页。

[普雷格,1993]普雷格,R. W. (1993)。基于卡内瓦稀疏分布存储器的网络:显示其优势和局限性的结果以及设计位置匹配层的新算法。IEEE神经网络国际会议(ICNN),第1040–1045页。

[波弟,2016]波弟,S. (2016)。HTM系统的数据编码。arXiv:1602.05925,第1-11页。

[Quiroga等人,2005年] Quiroga,R. Q .,Reddy,l .,Kreiman,g .,Koch,c .,和Fried,I. (2005年)。人脑中单个神经元的不变视觉表征。自然,435(7045):1102–1107。

拉赫科夫斯基,1990年。多层组合神经网络的发展与研究。格鲁什科夫控制论研究所,博士论文。(俄语)。

拉赫科夫斯基,1996年。随机组合神经网络在兴趣文本选择问题中的应用。

信息处理的神经网络系统(俄文),第52-64页。

拉赫科夫斯基,2001年。用二进制稀疏分布码表示和处理结构。IEEE知识与数据工程汇刊,3(2):261–276。

拉赫科夫斯基,2014年。使用随机二进制矩阵的矢量数据转换。控制论与系统分析,50(6):960–968。

【拉奇科夫斯基,2015】拉奇科夫斯基,D. A. (2015)。用随机二元投影形成相似反射二元向量。控制论与系统分析,51(2):313–323。

拉赫科夫斯基和费多塞耶娃,1990年。基于多层神经网络的音频信号识别。国际神经网络和神经计算研讨会(NEURONET),第281-283页。

拉赫科夫斯基和格里岑科,2018年。基于随机投影的矢量数据分布式表示。军种间。

拉赫科夫斯基和库苏尔,2001年。基于上下文细化的二进制稀疏分布表示的绑定和规范化。神经计算,13(2):411–452。

[Rachkovskij等人,2013年] Rachkovskij,D. A .、Kussul,E. M .和Baidyk,T. N. (2013年)。用结构敏感的稀疏二进制分布表示建立世界模型。生物启发的认知架构,3:64–86。

[Rachkovskij等人,2012年] Rachkovskij,D. A .、Misuno,I. S .和Slipchenko,S. V. (2012年)。构造二元稀疏向量表示的随机投影方法。控制论与系统分析,48(1):146–156。

[拉奇科夫斯基等人,2005年a]拉奇科夫斯基律师事务所、斯利普钦科律师事务所、弗罗洛夫律师事务所和胡塞克律师事务所(2005年a)。超矩形感受野对实值向量二进制编码的分辨。控制论与系统分析,41(5):635–646。

[Rachkovskij等人,2005b] Rachkovskij,D. A .,Slipchenko,S. V .,Kussul,E. M .,和Baidyk,T. N. (2005b)。随机子空间RSC方案的数字码性质。控制论与系统分析,41(4):509–520。

Rachkovskij等人,2005年c。标量的稀疏二进制分布式编码。自动化与信息科学杂志,37(6):12–23。

[Rachkovskij等人,2005d] Rachkovskij,D. A .,Slipchenko,S. V .,Misuno,I. S .,Kussul,E. M .,和Baidyk,T. N. (2005d)。数值向量的稀疏二进制分布式编码。自动化与信息科学杂志,37(11):47–61。

[Rahimi等人,2016年] Rahimi,a .,Benatti,s .,卡内瓦,p .,Benini,l .,Rabaey,J. M. (2016年)。超维生物信号处理:基于肌电的手势识别案例研究。IEEE重启计算国际会议(ICRC),第1-8页。

[Rahimi等人,2017年] Rahimi,a .,达塔,s .,Kleyko,d .,Frady,E. P .,Olshausen,b .,卡内瓦,p .,Rabaey,J. M. (2017年)。作为纳米尺度范例的高维计算。IEEE电路与系统汇刊I:常规论文,64(9):2508–2521。

[Rahimi等人,2019年] Rahimi,a .,卡内瓦,p .,Benini,l .,Rabaey,J. M. (2019年)。使用超多维计算的有效生物信号处理:ExG信号组合学习和分类的网络模板。IEEE会议录,107(1):123–143。

【拉撒嫩,2015】拉撒嫩,O. (2015)。从连续值多变量感觉输入生成超维分布式表示。在认知科学学会年会上,1943-1948页。

[雷基亚等人,2010年]雷基亚、琼斯、萨尔格伦和卡内瓦(2010年)。语义向量空间模型中的序列信息编码:全息简化表示和随机排列的比较。在认知科学学会年会上,865-870页。

[雷基亚等人,2015年]雷基亚,g .,萨尔格伦,m .,卡内瓦,p .,琼斯,M. N. (2015年)。语义空间模型中的序列信息编码:全息简化表示和随机排列的比较。计算智能和神经科学,第1-18页。

萨格伦,2005年。随机索引导论。国际术语和知识工程会议(TKE),第1-9页。

[萨尔格伦等人,2008年]萨尔格伦,霍尔斯特,和卡内瓦,P. (2008年)。排列作为一种在单词空间中编码顺序的方法。在认知科学学会年会上,第1300-1305页。

[施莱格尔等人,2020年]施莱格尔,k .,纽伯特,p .,和普罗策尔,P. (2020年)。向量符号体系结构的比较。arXiv:2001.11797,第1-9页。

[Schmuck等人,2019年] Schmuck,m .,Benini,l .,和Rahimi,A. (2019年)。密集二进制超维计算的硬件优化:超向量的再物质化、二进制捆绑和组合联想记忆。ACM计算系统新兴技术杂志,15(4):1–25。

[Shastri和Ajjanagadde,1993年]从简单的关联到系统的推理:使用时间同步的规则、变量和动态绑定的连接主义表示。行为和脑科学,16:417–494。

[史密斯和斯坦福,1990年]海明空间中的随机漫步。国际神经网络联合会议(IJCNN),第2卷,第465-470页。

[斯莫伦斯基,1990]斯莫伦斯基,P. (1990)。张量积变量绑定和联结主义系统中符号结构的表示。

人工智能,46:159–216。

[斯奈德和富兰克林,2014年]模块化复合表示。认知计算,6:510–527。

[索科洛夫和拉奇科夫斯基,2006年]。序列相似性表示方法。信息理论与应用,13(3):272–278。

斯坦福和史密斯,1994年。多维分散码:具有指数能力的数据融合技术。

国际人工神经网络会议(ICANN),第2卷,第1432-1435页。

[Stewart等人,2014年] Stewart,T. C .,Choo,x .和Eliasmith,C. (2014年)。尖峰神经元中的句子处理:一个生物学似是而非的左上角解析器。在认知科学学会年会上,第1533-1538页。

[Stewart等人,2011年] Stewart,T. C .,Tang,y .和Eliasmith,C. (2011年)。生物学上现实的清除记忆:尖峰神经元的自动联想。认知系统研究,12(2):84–92。

[Strubell等人,2019年] Strubell,e .,Ganesh,a .,和McCallum,A. (2019年)。自然语言处理中深度学习的能源和政策考虑。在计算语言学协会年会上,第3645-3650页。

[Summers-Stay等人,2018年]Summers-Stay d . Sutor p .和Li d .(2018年)。将集合表示为语义向量的总和。生物启发的认知架构,25:113–118。

[托马斯等人,2021年]托马斯,a .,达斯古普塔,s .,和罗辛,T. (2021年)。超维度计算的理论透视。人工智能研究杂志,72:215–249。

索普,2003年。本地化和分布式表示。在《大脑理论和神经网络手册》第643-646页。麻省理工出版社。

Tissera和McDonnell,2014年。利用正交随机矩阵实现MBAT向量符号体系结构中的“问题解答”。IEEE语义计算国际会议(ICSC),第171-174页。

[范·格尔德,1999年]分布式与本地表示。麻省理工学院认知科学百科全书,第235-237页。[温帕拉,2005年]温帕拉,S. S. (2005年)。随机投影法,第65卷。美国数学学会。

冯·德·马尔斯堡,1986年。我想的是集会吗?《大脑理论》第161-176页。

[王等,2004年]王,N. J .,Quek,j .,Rafacz,T. M .,和Patel,S. J. (2004年)。表征瞬态故障对高性能处理器流水线的影响。在国际可靠系统和网络会议(DSN)中,第61-70页。

[Weiss等人,2016年] Weiss,e . Cheung,b .和Olshausen,B. A. (2016年)。一种表示和推理空间关系的神经结构。OpenReview预印本。

[Widdows和Cohen,2015年] Widdows,d .和Cohen,T. (2015年)。矢量推理:快速鲁棒推理的连续模型。IGPL逻辑期刊,23(2):141–173。

[Wu等人,2018年] Wu,T. F .,Li,h .,Huang,p . c .,Rahimi,a .,Hills,g .,Hodson,b .,Hwang,w .,Rabaey,J. M .,Wong,H.-S. P .,Shulaker,m .和Mitra,S. (2018年)。利用碳纳米管场效应晶体管、电阻式随机存取存储器及其单片3D集成的超维计算。IEEE固态电路杂志,53(11):3183–3196。

[Yerxa等人,2018年] Yerxa,t .,Anderson,A. G .,和Weiss,E. (2018年)。超维堆叠机。在认知计算中,第1-2页。[伊尔马斯,2015年a]伊尔马斯,2015年a。使用基于特征扩展和储层计算的细胞自动机的机器学习。杂志

细胞自动机,10(5-6):435–472。

[伊尔马斯,2015年b]伊尔马斯。基于细胞自动机的超维计算的符号计算。神经计算,27(12):2661–2692。

A Survey on Hyperdimensional Computing aka Vector Symbolic Architectures, Part I: Models and Data Transformations

Denis Kleyko, Dmitri A. Rachkovskij, Evgeny Osipov, and Abbas Rahimi !

Abstract

This two-part comprehensive survey is devoted to a computing framework most commonly known under the names Hyperdimensional Computing and Vector Symbolic Architectures (HDC/VSA). Both names refer to a family of computational models that use highdimensional distributed representations and rely on the algebraic properties of their key operations to incorporate the advantages of structured symbolic representations and vector distributed representations. Notable models in the HDC/VSA family are Tensor Product Representations, Holographic Reduced Representations, Multiply-Add-Permute, Binary Spatter Codes, and Sparse Binary Distributed Representations but there are other models too. HDC/VSA is a highly interdisciplinary area with connections to computer science, electrical engineering, artificial intelligence, mathematics, and cognitive science. This fact makes it challenging to create a thorough overview of the area. However, due to a surge of new researchers joining the area in recent years, the necessity for a comprehensive survey of the area has become extremely important. Therefore, amongst other aspects of the area, this Part I surveys important aspects such as: known computational models of HDC/VSA and transformations of various input data types to high-dimensional distributed representations. Part II of this survey [Kleyko et al., 2021c] is devoted to applications, cognitive computing and architectures, as well as directions for future work. The survey is written to be useful for both newcomers and practitioners.

Index Terms

Artificial Intelligence, Machine Learning, Hyperdimensional Computing, Vector Symbolic Architectures, Distributed representations, Data structures, Holographic Reduced Representations, Tensor Product Representations, Matrix Binding of Additive Terms, Binary Spatter Codes, Multiply-Add-Permute, Sparse Binary Distributed Representations, Sparse Block Codes, Modular Composite Representations, Geometric Analogue of Holographic Reduced Representations

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-06-29,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 CreateAMind 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 2.1动机和基本概念
  • 2.2结构敏感的分布式表示
  • 乘法绑定
  • 排列装订
  • 2.3HDC/VSA模型
  • 2.4HVs的信息容量
  • 3.1符号和集合
  • 3.2数字标量和向量 Numeric scalars and vectors
  • 3.3顺序
  • 3.42D图像
  • 3.5图表
  • 4.1HDC/VSA型号之间的连接
  • 4.2HDC/VSA的理论基础
  • 4.3HDC/VSA模型的硬件实现
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档