首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如何组合多个向量,使每个向量的元素尽可能均匀地分布?

要组合多个向量并使每个向量的元素尽可能均匀地分布,可以采用以下几种方法:

1. 随机抽样法

随机抽样法是一种简单且常用的方法,通过从每个向量中随机抽取一定数量的元素来组合成新的向量。这种方法可以保证每个向量的元素在新向量中都有所体现。

示例代码:

代码语言:txt
复制
import random

def random_sampling(vectors, sample_size):
    combined_vector = []
    for vector in vectors:
        combined_vector.extend(random.sample(vector, sample_size))
    return combined_vector

# 示例向量
vectors = [
    [1, 2, 3, 4, 5],
    [6, 7, 8, 9, 10],
    [11, 12, 13, 14, 15]
]

combined_vector = random_sampling(vectors, 2)
print(combined_vector)

2. 轮询法

轮询法是一种按顺序从每个向量中选取元素的方法。这种方法可以确保每个向量的元素在新向量中均匀分布。

示例代码:

代码语言:txt
复制
def round_robin(vectors, total_size):
    combined_vector = []
    num_vectors = len(vectors)
    for i in range(total_size):
        combined_vector.append(vectors[i % num_vectors][i // num_vectors])
    return combined_vector

# 示例向量
vectors = [
    [1, 2, 3],
    [4, 5, 6],
    [7, 8, 9]
]

combined_vector = round_robin(vectors, 9)
print(combined_vector)

3. 加权随机抽样法

加权随机抽样法可以根据每个向量的大小或其他特征来分配抽样数量,从而确保元素分布更加均匀。

示例代码:

代码语言:txt
复制
import random

def weighted_sampling(vectors, weights):
    combined_vector = []
    for vector, weight in zip(vectors, weights):
        combined_vector.extend(random.sample(vector, weight))
    return combined_vector

# 示例向量和权重
vectors = [
    [1, 2, 3, 4, 5],
    [6, 7, 8, 9, 10],
    [11, 12, 13, 14, 15]
]
weights = [1, 2, 2]

combined_vector = weighted_sampling(vectors, weights)
print(combined_vector)

4. K-means聚类法

K-means聚类法可以将所有向量的元素聚类成K个簇,然后从每个簇中选取一定数量的元素来组合成新的向量。这种方法可以确保元素分布更加均匀。

示例代码:

代码语言:txt
复制
from sklearn.cluster import KMeans
import numpy as np

def kmeans_sampling(vectors, k):
    all_elements = np.concatenate(vectors)
    kmeans = KMeans(n_clusters=k)
    kmeans.fit(all_elements.reshape(-1, 1))
    cluster_centers = kmeans.cluster_centers_.flatten()
    combined_vector = []
    for center in cluster_centers:
        closest_element = min(all_elements, key=lambda x: abs(x - center))
        combined_vector.append(closest_element)
    return combined_vector

# 示例向量
vectors = [
    [1, 2, 3, 4, 5],
    [6, 7, 8, 9, 10],
    [11, 12, 13, 14, 15]
]

combined_vector = kmeans_sampling(vectors, 5)
print(combined_vector)

应用场景

这些方法可以应用于多种场景,例如:

  • 数据集的混合和平衡
  • 特征向量的组合
  • 数据采样和预处理

可能遇到的问题及解决方法

  1. 元素分布不均匀:可以通过增加样本量或调整权重来解决。
  2. 向量长度不一致:可以使用填充或截断的方法使向量长度一致。
  3. 计算复杂度高:可以选择更高效的算法或使用并行计算。

通过以上方法和示例代码,可以有效地组合多个向量并使每个向量的元素尽可能均匀地分布。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

基于对比学习(Contrastive Learning)的文本表示模型为什么能学到语义相似度?

前不久的BERT-flow通过normalizing flow将向量分布映射到规整的高斯分布上,更近一点的BERT-whitening对向量分布做了PCA降维消除冗余信息,但是标准化流的表达能力太差,而白化操作又没法解决非线性的问题...正好,对比学习的目标之一就是学习到分布均匀的向量表示,因此我们可以借助对比学习间接达到规整表示空间的效果。 那么如何评价这个表示空间的质量呢?...Wang and Isola (2020)提出了衡量对比学习质量的两个指标:Alignment和Uniformity: Alignment计算xi和xi+的平均距离; 而Uniformity计算向量整体分布的均匀程度...我们希望这两个指标都尽可能低,也就是一方面希望正样本要挨得足够近,另一方面语义向量要尽可能地均匀分布在超球面上,因为均匀分布信息熵最高,分布越均匀则保留的信息越多。...为了达成这一目标,模型需要尽可能多地提前认识各种各样的数据。鉴于训练数据不好找,只能自行构造,于是诞生了“自监督训练”,“对比学习”也是其中的一种形式。

1.5K30

代数运算对应于认知运算,使用随机向量表示计算函数 VSA到VFA

均匀采样的基向量产生具有通用核形状的VFAs,即sinc函数,与底层绑定操作无关。因此,结果VFA中的向量可以表示带限函数(定理2)。 • 描述了如何在VFA中塑造核的方法。...请注意,双极性向量是具有特定采样分布的复数向量的特例;我们将回到讨论不同分布如何影响 VFA 的属性。...对于Hadamard FPE,这意味着基向量的相位是从均匀相位分布中采样的,而对于CC FPE和LCC FPE,这意味着基向量在傅里叶域中对应于具有均匀相位分布样本的随机相位向量。...在哈达玛绑定的情况下,周期性核是由基向量中的相量基向量产生的,其中每个分量是从离散化的相位分布中独立采样的。...字母图像是VFA函数空间中的一个元素,函数(11)的核展开中的每个项分别通过系数和支撑点编码像素的强度和位置,见图11的左图。多个字母可以通过添加各自的图像向量组合成场景(图11的中间图)。

10910
  • 机器学习在热门微博推荐系统的应用

    所以,我们尽可能拉长历史来保证用户向量中包含充足的信息,然而,K-Means对高维数据的训练效率极低。我们尽量平衡训练效率和聚类效果,但效果很差,各个类别规模极其不均匀,不能满足需求。...按照微博的特性,这么处理的话,语料里“句子”长度的分布会非常不均匀。所以最终也没有选用。 Doc2Vec:强调向量间的距离,适合K-means。...把用户ID当成句子ID、用户的阅读序列作为句子内容,微博ID作为词进行训练时,语料里“句子”长度的分布会均匀很多,效果较好。 所以最终选择了Doc2Vec对用户向量进行降维。...然后使用低维向量进行聚类,结果明显改善,类别规模变得很均匀,符合我们的需求。 在线部分,在线部分只需要记录几小时内每个聚类下的用户群体对各个微博的行为,经过简单的加权计算、排序、取Top。...因此,如何在排序模型中兼顾多个目标,使得每个目标都有增长,就非常重要。在热门微博的机器学习排序中,我们实验了两种方法: 每个目标各自使用一个模型,做模型融合。

    2K20

    机器学习——集成学习、聚类分析、降维学习

    集成学习集成学习正是使用多个个体学习器来获得比每个单独学习器更好的预测性能。性能优劣不一的个体学习器放在一块儿可能产生的是更加中庸的效果,即比最差的要好,也比最好的要差。...先通过改变训练数据的权重分布,训练出一系列具有粗糙规则的弱个体分类器,再基于这些弱分类器进行反复学习和组合,构造出具有精细规则的强分类器。...具体来说,聚类分析要将数据集划分为若干个互不相交的子集,每个子集中的元素在某种度量之下都与本子集内的元素具有更高的相似度。...分布聚类又被称为基于概率模型的聚类,其核心思想是假定隐藏的类别是数据空间上的一个分布。在分布聚类中,每个聚类都是最可能属于同一分布的对象的集合。...如果这样的超平面存在,那它应该具备以下的性质:一方面,不同样本点在这个超平面上的投影要尽可能地分散;另一方面,所有样本点到这个超平面的距离都应该尽可能小。

    37420

    深度学习8:详解生成对抗网络原理

    总而言之,逆变换方法是通过使均匀随机变量经过精心设计的“变换函数”(逆CDF)来生成遵循给定分布的随机变量的方式。...我们可以将每个数据重新整形为N = n×n维向量(通过将列堆叠在彼此之上),使得狗的图像可以由向量表示。然而,这并不意味着所有的矢量都代表一只狗形状回到正方形!...因此,我们可以说,有效地给出看起来像狗的东西的N维向量根据整个N维向量空间上的非常特定的概率分布来分布(该空间的某些点很可能代表狗,而它是对其他人来说极不可能)。...因此,在GAN架构中,我们有一个鉴别器,它可以获取真实数据和生成数据的样本,并尝试尽可能地对它们进行分类,以及一个经过培训的发生器,以尽可能地欺骗鉴别器。...如果这两个分布很明显,那么鉴别器将能够轻松地进行分类,并且可以高度自信地将我们呈现给它的大多数点分类。如果我们想欺骗鉴别器,我们必须使生成的分布接近真实的分布。

    14310

    深度学习进阶篇:对抗神经网络GAN基本概念简介、纳什均衡、生成器判别器、解码编码器详解以及GAN应用场景

    理性这个关键字,因为它是博弈论的基础。我们可以简单地把理性称为一种理解,即每个行为人都知道所有其他行为人都和他/她一样理性,拥有相同的理解和知识水平。...所谓纳什均衡,指的是参与者的一种策略组合,在该策略上,任何参与人单独改变策略都不会得到好处,即每个人的策略都是对其他人的策略的最优反应。...但如果完全随机,就不知道生成的图像有什么特征,结果就会不可控,因此通常从一个先验的随机分布产生噪声。常用的随机分布:高斯分布:连续变量中最广泛使用的概率分布;均匀分布:连续变量x的一种简单分布。...通过下图模型结构讲解生成器如何一步步将噪声生成一张图片:图片1)输入:100维的向量;2)经过两个全连接层Fc1和Fc2、一个Resize,将噪声向量放大,得到128个7*7大小的特征图;3)进行上采样...(Encoder网络结构不局限于卷积神经网络)以人脸编码为例,Encoder将人脸图像压缩到短向量,这样短向量就包含了人脸图像的主要信息,例如该向量的元素可能表示人脸肤色、眉毛位置、眼睛大小等等。

    1.2K30

    损失函数是学习的指挥棒—记一次实践经历

    PCA投影 一个直接的想法是,最大方差投影,即PCA第一主成分对应的投影向量, 投影(内积),将N维映射成1维 方差最大,保留尽可能多的信息 投影后,得到的分布如下, ?...分布特点:单峰、偏斜、陡峭、长尾…… 因为一些后处理操作的要求,希望投影得到的分布尽可能对称且均匀,能否找到更好的投影方向?...基于偏度与峰度 构建损失函数 如果采用学习的方法,待学习的参数很好定义,1个D维的投影向量,关键是如何构建损失函数。...我们希望投影后的分布具有如下特点, 对称 均匀 方差尽可能大 显然这是个无监督问题,令投影向量为 p , x_i 投影后为 y_i = p\cdot x_i , y_i 为标量,我们希望 y_1, y_...3,均匀分布的峰度为1.8。

    78620

    从几何角度理解矩阵

    例如, 中的标准基是: 根据定义, 中的每个向量都可以写成标准基的线性组合: 现在让我们看看,用矩阵乘以标准基中的一个向量,会发生什么,例如 : 也就是说,矩阵 的第二个列向量告诉我们...上面两个式子可以帮助我们理解矩阵乘法,即将向量映射到转换矩阵 的列空间(列向量张成的空间), 恰为矩阵 的列向量的线性组合,系数为向量 的元素。...因此,不能用线性变换表示的空间的形变,即若 中均匀分布的点在 中若不均匀了(如上图 B 所示),就不能使用线性变换。 下面讨论几种特殊矩阵的变换,为了简化问题,仅以 矩阵为例。...如果没有 ,则向量中的 被拉伸为 倍;当有了 后,变换后的向量的第一个元素是 和 的线性组合。...如果更严谨地研究正交矩阵,需要了解如下几项性质。**1. 角度不变**设矩阵 的列向量集合是 ,矩阵 是单位正交矩阵,线性变换 并不改变列向量两两之间的夹角。

    1.3K11

    高性能计算简要复习

    1、概念 集群 PVP:Player VS Player PVP拥有多个高性能向量处理器,有向量寄存器和指令缓冲,不用高速缓存,共享内存。...SMP:对称多处理机,拥有多个完全相同处理器,共享内存,拥有高速缓存。 MPP:大规模并行处理机。有多个内存不共享的节点。 DSM:分布共享存储多处理机。虽然物理上独立,但逻辑上共享内存。...NUMA:非均匀存储访问模型。存储器分布在处理器中,因而访问不同存储空间时间不同,处理器可带高速缓存。...配合高速网络的使用。 Distribute Computing:分布式计算。比起性能更注重功能。 Cloud Computing:云计算。按需提供资源,使计算像电力一样提供。...10、均匀划分/方根划分/对数划分/功能划分+PSRS排序/归并排序/选择问题 这里不懂,Mark一下。 均匀划分:将n个元素分割成p段,每段n/p个元素且分配给1个处理器。

    1.5K10

    每个数据科学家都应该知道的20个NumPy操作

    无论数据采用何种格式,都需要将其转换为一组待分析的数字。因此,有效地存储和修改数字数组在数据科学中至关重要。...浮点数在0和1之间的一维数组。可以用于创建随机噪声数据。 3. 一个标准正态分布的样本 randn()用于从一个标准正态分布(即零均值和单位方差)创建一个样本。 ?...Arange Arange函数用于在指定的时间间隔内创建具有均匀间隔顺序值的数组。我们可以指定起始值、停止值和步长。 ? 默认的起始值是零,默认的步长是1。 ? 7....Inv 计算矩阵的逆。 ? 矩阵的逆矩阵是与原矩阵相乘得到单位矩阵的矩阵。不是每个矩阵都有逆矩阵。如果矩阵A有一个逆矩阵,则称为可逆或非奇异。 18. Eig 计算一个方阵的特征值和右特征向量。...点积 计算两个向量的点积,这是关于它们的位置的元素的乘积的和。第一个向量的第一个元素乘以第二个向量的第一个元素,以此类推。 ? 20. 矩阵相乘 Matmul 矩阵乘法。 ?

    2.4K20

    构建可以查找相似图像的图像搜索引擎的深度学习技术详解

    kobiso.github.io/Computer-Vision-Leaderboard/cars.html)上,它们通过parallel pools 、Batch Drop Block等技术,可以获得使输出特征图的激活分布更均匀的最佳图像特征描述...4、Angular Additive Margin (ArcFace) 双重损失的问题在于选择anchor、positive和negative的组合——如果它们只是从数据集中均匀随机抽取,那么就会出现“...,其中每个窗口的激活是每个通道独立的取这个窗口的最大值。...因此可以粗略地将 k-reciprocal 集中的元素视为已知正样本,并更改加权规则。原始论文中包含大量计算,这超出了本文的范围,建议有兴趣的读者阅读。 验证指标 最后就是检查类似搜索质量的部分。...要计算指标:遍历所有请求,计算到所有元素(包括相关元素)的距离,并将它们发送到指标计算函数。 完整的样例介绍 这里以搜索相似商标logo为例介绍图像搜索引擎是如何工作的。

    1.1K20

    OpenCV - 矩阵操作 Part 3

    内容列表 序号 函数 描述 1 cv2.phase() 计算二维向量的方向 2 cv2.polarToCart() 已知角度和幅度,求出对应的二维向量 3 cv2.pow() 对矩阵内的每个元素求幂 4...cv2.randu() 用均匀分布的随机数填充给定的矩阵 5 cv2.randn() 用正态分布的随机数填充给定的矩阵 6 cv2.randShuffle() 随机打乱矩阵元素 7 cv2.reduce...计算矩阵逐元素的平方根 17 cv2.subtract() 实现两个矩阵逐元素相减 18 cv2.trace() 计算一个矩阵的迹 19 cv2.transform() 在矩阵的每个元素上应用矩阵变换...输入具有相同尺寸和类型的两个矩阵:幅度和角度,指定每个点处向量的幅度和角度。输出类似的两个矩阵,它们与输入具有相同的尺寸和类型,并且将包含每个点处向量的x和y投影。...或列)进行系统的转化,直到只剩一行(或列)为止,使之成为向量vec。

    1.8K31

    数据预处理之降维-PCA和LDA

    一、LDA(线型判别分析-Linear Discriminant Analysis) 1.基本原理 给定训练集样例,设法将样例投影到一条直线上,使得同类样例的投影点尽可能的接近、异类样例的投影点尽可能地远离...3.对PCA中的特征向量和特征值的理解 协方差理解: 对于一个样本集合S,如果每个样本是一个n维空间中的一个列向量,则使用协方差矩阵描述样本之间的变化程度, 协方差矩阵的定义式: ?...,m),每个样本Xi的维度为n,Xi的均值为0向量,则协方差矩阵C=X*X',其中X=(X1,X2,......线性判别分析LDA算法由于其简单有效性在多个领域都得到了广泛地应用,是目前机器学习、数据挖掘领域经典且热门的一个算法;但是算法本身仍然存在一些局限性: 当样本数量远小于样本的特征维数,样本与样本之间的距离变大使得距离度量失效...,使LDA算法中的类内、类间离散度矩阵奇异,不能得到最优的投影方向,在人脸识别领域中表现得尤为突出 LDA不适合对非高斯分布的样本进行降维 LDA在样本分类信息依赖方差而不是均值时,效果不好 LDA可能过度拟合数据

    1.9K10

    算法工程师-机器学习面试题总结(1)

    它可以通过计算模型预测结果与真实标签之间的误差来衡量。通常使用损失函数来表示经验误差,目标是使经验误差尽可能小,以提高模型对训练数据的拟合程度。 结构误差:结构误差是指模型在未知的测试数据上的误差。...设A和B是两个集合,它们的笛卡尔积表示为A × B,其中A × B = {(a, b) | a ∈ A, b ∈ B}。简单来说,就是将A中的每个元素与B中的每个元素进行组合,生成一个新的集合。...外积(Outer Product)在向量和矩阵运算中出现,用于计算两个向量之间的乘积或矩阵之间的乘积。对于两个向量a和b的外积,结果是一个矩阵,其中每个元素都是a与b对应位置上的元素相乘得到的。...- 外积是向量或矩阵之间的乘积,结果是一个矩阵,其中每个元素都是对应位置上的元素相乘得到的。 - 内积是向量之间的乘积,结果是一个标量,是对应位置上的元素相乘再相加得到的。...其次,计算中心词和正样本的损失,使其在输出分布中的概率尽可能地接近于1。 整个训练过程通常使用梯度下降算法来最小化损失函数。最终得到的隐藏层向量就是词向量,可以用于表示词语在语义空间中的分布。

    59320

    直观思考:深度学习为何要 “深”?

    情景: 是二维向量,维度是碳原子和氧原子的数量 ,数值且定为 ,若确定 是三维向量,就会形成如下网络的形状 (神经网络的每个节点表示一个维度)。通过改变权重的值,可以获得若干个不同物质。...如何训练: 既然我们希望网络的输出尽可能的接近真正想要预测的值。...常用方法有:高斯分布初始权重(Gaussian distribution)、均匀分布初始权重(Uniform distribution)、Glorot 初始权重、He初始权、稀疏矩阵初始权重(sparse...上图用均匀分布初始权重(Uniform distribution)。...上图中所有在黄色背景颜色的点都会被分类为“黄点“,同理,蓝色区域被分成蓝点。在上面的分类分布图中你可以看到每一层通过上一层信息的组合所形成的。权重(那些连接线)控制了“如何组合”。

    42720

    YJango:深度学习入门

    假想情景 \vec{x}是二维向量,维度是碳原子和氧原子的数量 [C;O],数值且定为[1;1]。若确定\vec{y}是三维向量,就会形成如下网络的形状 (神经网络的每个节点表示一个维度)。...重要的是这种组合思想,组合成的东西在神经网络中并不需要有物理意义,可以是抽象概念。 每层神经网络的物理理解:通过现有的不同成分的组合形成新成分。 --- 二、神经网络如何完成识别任务?...然而这只解释了为何神经网络有效,并没有接触到核心问题:为何深层神经网络更有效 --- 三、如何训练神经网络? 既然我们希望网络的输出尽可能的接近真正想要预测的值。...常用方法有:高斯分布初始权重(Gaussian distribution)、均匀分布初始权重(Uniform distribution)、Glorot 初始权重、He初始权、稀疏矩阵初始权重(sparse...上图用均匀分布初始权重(Uniform distribution)。

    1.5K170

    GJR-GARCH和GARCH波动率预测普尔指数时间序列和Mincer Zarnowitz回归、DM检验、JB检验

    p=25569 在投资组合管理、风险管理和衍生品定价中,波动性起着重要作用。接下来是检查每个模型在样本内外的表现如何。以下是您可以做的三件事: 1....矛盾的是,如果截距是0.02,这意味着为了使两边相等,我们在预测中平均增加0.02,所以它一直在低估观察值。斜率应该是1,也就是说,你的预测完全 "解释 "了观察值。 2....调用这些误差 在两种方法相同的情况下,这两个向量的差 平均为零(或这些向量的函数,例如 e1^2 – e2^2)。在仅使用相同方法复制预测的极端情况下,差正好为零。...更重要的是,我们知道这种差是如何分布的(渐近地),因此我们可以测试它是否确实偏离零。 难以理解这一点。如果不知道 2 的结果的可能性有多大,就不可能测量 0 和 2 之间的距离。...在 {-3,3} 之间均匀分布的 2 的结果并不像具有标准正态分布的 2 的结果那样不可能。 产生明显更小的误差(通常是平方误差或绝对误差)的方法是首选。您可以轻松地将其扩展到多个比较。 3.

    96710

    人工智能代理即将改变您的数字生活

    为了使这些代理有效地执行,它们需要一个记忆系统,使它们能够回忆并建立在过去的交互基础上。这就是 向量数据库 的作用。...Milvus 提供的动态模式设计允许灵活地将元数据添加到每个向量中。这丰富了代理的记忆,提供了对存储知识的更完整视图。 增强上下文管理 为了使代理能够保持连贯的交互,他们必须有效地检索相关数据。...对于 AI 代理,这种分布式设置确保它们可以管理大量数据而不会减慢速度。例如,如果一个 AI 代理需要处理数十亿条信息,这些数据可以分布在多个节点上,从而保持快速响应时间并避免瓶颈。...负载均衡和分片:负载均衡将工作负载均匀地分布在不同的服务器或节点上,防止任何一台机器不堪重负。分片是将大型数据集分解成更小、更易于管理的片段(称为分片)的过程。分片是数据库中的水平数据分区。...使用这两种技术可以优化向量数据库的性能。当数据和查询工作负载均匀地分布在集群中时,每台机器只需要处理一部分工作,从而提高效率。这对于需要快速处理大型数据集的代理尤其重要。

    10810

    概率建模和推理的标准化流 review2021

    与递归或掩码自回归流不同,单个耦合层不再能表示任何自回归变换,无论函数 F 的表达能力如何。因此,具有单个耦合层的自回归流不再是一个通用逼近器。尽管如此,通过组合多个耦合层可以增加流的表达能力。...此外,该层的变换器是自回归模型的条件的累积分布函数,并且该层的基础分布是 中的均匀分布。我们可以通过写出变量变化下的密度来使联系变得明确: 涉及均匀基本密度的项从表达式中消失,只留下雅可比行列式。...然而,没有解析方法来计算它们的逆,这就是为什么这些流主要被用来近似变分自编码器的后验分布。此外,每个单独的变换都相当简单,不清楚如何增加流的灵活性,除了增加变换的数量。...3.4 当组合变换时的实际考虑 实现一个流通常就是将尽可能多的变换组合起来,以满足计算和内存的限制。...多尺度架构 正如第2.1节所述,x和u必须具有相同的维度,并且每个子转换Tk必须保持维度。这意味着评估T会随着维度增长而产生越来越高的计算成本。这一约束与我们尽可能使用尽可能多的步骤的愿望直接相悖。

    15110

    AGI之 概率溯因推理超越人类水平

    然而,基于乘法绑定的编码很好地推广到多个对象的看不见的组合(参见补充注释1c)。重要的是,所采用的乘法编码导致学习强大的感知表示,为解决高级推理任务(如视觉类比)做好准备。...在分数幂编码32的帮助下,这个VSA框架允许表示连续的PMF。二进制稀疏分组码中的基向量是具有κ个非零元素的d维二进制值向量。更具体地说,向量被分成κ个不同的块,这些块恰好包含一个非零元素。...二元稀疏分组码中的绑定被定义为分组循环卷积;类似地,解绑定是逐块循环相关。两个向量的相似度是由块数κ归一化的内积之和。两个或多个向量的捆绑是通过逐元素相加来计算的。...可选地,捆绑向量可以被稀疏化为每个块仅具有一个非零元素,然而,这导致信息损失。因此,在这项工作中,捆绑是在没有稀疏化的情况下进行的。 在下文中,我们将说明如何将PMF转换成这种VSA格式。...通过绑定其属性向量,多属性含义在结构上被分配给每个对象向量,这些属性向量可以被进一步捆绑以创建表示多个对象的复合向量——所有这些都在显著低于组合属性的固定维度中。

    25320
    领券