首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

GraphMAE: 自监督的掩码图自动编码器

特别是,生成性SSL已经在自然语言处理和其他领域取得了成功,例如BERT和GPT的广泛采用。...尽管如此,对比学习(严重依赖于结构数据增强和复杂的训练策略)一直是图SSL的主要方法,而生成性SSL在图上的进展,特别是图自动编码器(GAEs),到目前为止还没有达到其他领域相似的潜力。...在本文中,作者确定并研究了对GAEs的发展产生负面影响的问题,包括其重建目标、训练鲁棒性和错误度量。作者提出了一个掩码图自动编码器GraphMAE,它缓解了生成性自监督图学习的这些问题。...作者建议将重点放在特征重建上而不是结构重建上,同时使用掩码策略和缩放余弦误差,这有利于GraphMAE的鲁棒性训练。作者针对三种不同的图学习任务,在21个公共数据集上进行了广泛的实验。...结果表明,GraphMAE(经过作者精心设计的简单图自动编码器) 能够持续达到优于对比性和生成性最先进基线的性能。本研究提供了对图自动编码器的理解,并展示了生成性自监督学习在图上的潜力。

1.1K20

带掩码的自编码器(MAE)最新的相关论文推荐

这篇论文研究了异构图上的SSL的问题,并提出了一种新的异构图掩码自编码器模型HGMAE来解决这些问题。HGMAE通过两种创新的掩码技术和三种独特的训练策略捕捉全面的图信息。...:对比的带掩码的自编码器 (CMAE)。...CMAE 由两个分支组成,其中在线分支是非对称编码器-解码器,目标分支是动量更新编码器。在训练期间,在线编码器从掩码图像的潜在表示中重建原始图像,以学习整体特征。...论文使用带掩码自编码器来解决这个单样本学习问题。从经验上讲,这个简单方法提高了分布位移的许多可视基准的泛化能力。...遵循MAE中的Transformer编码器-解码器设计,audio -MAE首先以高掩码率编码音频谱图,只通过编码器层提供非掩码令牌。

72420
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    CyCoSeg:基于掩码自编码器的检索预训练语言模型

    在本文中,我们提出了 RetroMAE,一种基于掩码自动编码器 (MAE) 的新的面向检索的预训练范例。RetroMAE 突出了三个关键设计。...1) 一种新颖的 MAE 工作流程,其中输入句子被不同掩码的编码器和解码器污染。句子嵌入是从编码器的屏蔽输入中生成的;然后,通过掩码语言建模,基于句子嵌入和解码器的掩码输入恢复原始句子。...2)非对称模型结构,以全尺寸BERT like transformer作为编码器,以一层transformer作为解码器。...3) 非对称屏蔽率,编码器比例适中:15~30%,解码器激进比例:50~70%。...我们的框架易于实现且在经验上具有竞争力:预训练模型显着提高了 SOTA 在广泛的密集检索基准(如 BEIR 和 MS MARCO)上的性能。

    44640

    带掩码的自编码器MAE详解和Pytorch代码实现

    Facebook AI的kaiming大神等人提出了一种带掩码自编码器(MAE)²,它基于(ViT)³架构。他们的方法在ImageNet上的表现要好于从零开始训练的VIT。...在本文中,我们将深入研究他们的方法,并了解如何在代码中实现它。 带掩码自编码器(MAE) 对输入图像的patches进行随机掩码,然后重建缺失的像素。MAE基于两个核心设计。...首先,开发了一个非对称的编码器-解码器架构,其中编码器仅对可见的patches子集(没有掩码的tokens)进行操作,同时还有一个轻量级的解码器,可以从潜在表示和掩码tokens重建原始图像。...首先,屏蔽的输入被发送到编码器。然后,它们被传递到前馈层以更改嵌入维度以匹配解码器。在传递给解码器之前,被掩码的Patch被输入进去。位置编码再次应用于完整的图像块集,包括可见的和被掩码遮盖的。...结论 我对未来自监督的视觉必须提供的东西感到兴奋。鉴于 BERT 在自然语言处理方面的成功,像 MAE 这样的掩码建模方法将有益于计算机视觉。图像数据很容易获得,但标记它们可能很耗时。

    3.6K30

    Python Unicode编码混乱 :来自大洋彼岸的怨念

    例如,将带有智能引号的“播客”标题转为以ASCII编码会引致python错误,导致gPodder(一款开源的播客接收器,采用Python和PyGTK开发,可帮助管理播客RSS供稿,并自动下载所需要的播客资料...我最近处理了20年前当UTF-8还未成为文件名标准时的数据。这些文件名在UNIX上仍然有效,可以用tar命令进行压缩或解压。但当你试图将文件名以字符串的形式存储,编码错误便接踵而至。...我最近正在处理mtree生成的数据,它使用八进制转义来处理文件名中的特殊字符。我认为这对于Python会很容易。结果… 许多错误的解答 ——对于某些值,你会得到一个编码错误。...但是,强烈建议使用str类型,因为这样可以确保Unicode编码的文件名得到跨平台支持(在Windows上,Python 3.3开始,就已经不支持bytes编码的文件名了)。”...小编说两句:这事儿真不怪Python,题主这种“处理了20年前当UTF-8还未成为文件名标准时的数据”的任务,平时谁会碰到,这种任务当然需要题主对编码系统足够了解才能完成了......题主发发牢骚,别怨

    66450

    带掩码的自编码器MAE在各领域中的应用总结

    所以各种基于带掩码的自编码器技术就出现了,这种技术允许在未标记的数据上训练模型,并且获得的特征能够适应常见下游任务 BERT — 最早的遮蔽模型,用于文本任务 1810.04805 MAE — 图像,...在编码器之后,引入掩码标记,用一个小(相对于编码器小)解码器对全部编码的Patch和掩码标记进行解码,重建原始图像。下游的任务中,编码器的输出作为特征,下游任务不需要进行遮蔽。...使用上面的掩码进行填充,将编码器的输出和遮蔽进行合并并且保留原始顺序,作为解码器的输入。 解码器来负责重建遮蔽。...这里需要说明的是,因为由transformer 不依赖于数据的长度,所以在下游使用时可以将完整的样本输入到模型中,也就是说下游的任务不需要进行掩码遮蔽了。 MAE为什么可以在不同的领域中使用?...音频的频谱图的MAE 下面的说明来自论文 我们探索了将MAE简单扩展到音频数据的方法。

    78020

    one-hot encoding不是万能的,这些分类变量编码方法你值得拥有

    作者:Andre Ye,来源:机器之心、NewBeeNLP one-hot encoding 是一种被广泛使用的编码方法,但也会造成维度过高等问题。...one-hot 编码(one-hot encoding)类似于虚拟变量(dummy variables),是一种将分类变量转换为几个二进制列的方法。其中 1 代表某个输入属于该类别。 ?...从机器学习的角度来看,one-hot 编码并不是一种良好的分类变量编码方法。 众所周知,维数越少越好,但 one-hot 编码却增加了大量的维度。...例如,如果用一个序列来表示美国的各个州,那么 one-hot 编码会带来 50 多个维度。...最优数据集由信息具有独立价值的特征组成,但 one-hot 编码创建了一个完全不同的环境。 当然,如果只有三、四个类,那么 one-hot 编码可能不是一个糟糕的选择。

    1.3K31

    one-hot encoding不是万能的,这些分类变量编码方法你值得拥有

    one-hot 编码(one-hot encoding)类似于虚拟变量(dummy variables),是一种将分类变量转换为几个二进制列的方法。其中 1 代表某个输入属于该类别。...从机器学习的角度来看,one-hot 编码并不是一种良好的分类变量编码方法。 众所周知,维数越少越好,但 one-hot 编码却增加了大量的维度。...例如,如果用一个序列来表示美国的各个州,那么 one-hot 编码会带来 50 多个维度。...one-hot 编码不仅会为数据集增加大量维度,而且实际上并没有太多信息,很多时候 1 散落在众多零之中,即有用的信息零散地分布在大量数据中。...最优数据集由信息具有独立价值的特征组成,但 one-hot 编码创建了一个完全不同的环境。 当然,如果只有三、四个类,那么 one-hot 编码可能不是一个糟糕的选择。

    80420

    ICDE 2024 | TFMAE: 基于时频掩码自编码器的对比时序异常检测

    主要的贡献有三: 为了消除潜在的异常观测或模式对模型带来负面影响,此文提出了基于窗口的时间掩码自编码器和基于幅值的频率掩码自编码器来预消除时频域异常。...这项工作将基于时间和频率双通道掩码自编码器的对比差异取代重建误差进行时间序列异常检测,这是因为时频域异常与其相对另一自编码器消除异常后表示之间差异将超过正常表示间差异。...与时间域中掩码和非掩码时间点可被简单分割不同,不同频率在被恢复到时间域后将会融合。因此,传统的掩码自编码器范式(通常按顺序对非掩码和所有 token 进行建模)在频域中遇到挑战。...频率掩码自编码器仅采用解码器架构的,这是因为逆傅里叶变换后,被掩码频率和未被掩码频率已然混合。具体的,如上图左侧所示,vanilla Transformer 包括位置编码和随后的 层自注意力模块。...时间掩码自编码器:如上图右侧所示,未被掩码的时间点首先由基于 Transformer 的编码器处理,以学习正常时间依赖。

    25910

    大佬说 | 写给程序员的TensorFlow教程-编码篇

    带大家迅速上手TensorFlow(以下简称TF。我是强迫症患者,每次都敲驼峰太累了)。...下面正式要开始了我们真正的TensorFlow编程,这篇文章主要内容分为两部分,一部分是介绍TF的基础知识和一些常用接口;第二部分是接着上节课的内容继续执行我们的解题思路。...特别注意的是,我们数据中的输出部分y(就是验证码的识别结果),是一个四个字符的字符串,但是这样子是不能传给TF的,TF需要另外一种格式的数据y(one-hot encoding),转换代码就是中间一段,...我单独截取出来看下,暂时不理解的也无所谓(不过建议大家可以打印下这个one-hot encoding一般是什么样子的,有个更直观的理解)。...代码不多,最大的难点是one-hot encoding的转换,大家可以参考代码多写几次就既可,至于为什么要转换成这么诡异的样子,主要是因为这样子更适合训练中的向量计算,当然你也可以理解为大家都说这么做好

    45350

    深度学习中的自动编码器:TensorFlow示例

    这种神经网络中的输入是未标记的,这意味着网络能够在没有监督的情况下进行学习。更准确地说,输入由网络编码,仅关注最关键的特征。这是自动编码器因降维而流行的原因之一。...去噪自动编码器的想法是为图像添加噪声,迫使网络学习数据背后的模式。   另一个有用的自动编码器系列是变分自动编码器。这种类型的网络可以生成新图像。...想象一下,你用一个男人的形象训练一个网络; 这样的网络可以产生新的面孔。 使用TensorFlow构建自动编码器 在本教程中,您将学习如何构建堆叠自动编码器以重建图像。   ...在构建模型之前,让我们使用Tensorflow的数据集估算器来提供网络。   您将使用TensorFlow估算器构建数据集。...也就是说,模型将看到100倍的图像到优化的权重。   您已熟悉在Tensorflow中训练模型的代码。稍有不同的是在运行培训之前管道数据。通过这种方式,模型训练更快。

    73220

    TensorFlow 笔记

    、生成对抗网络 强化学习 DQN、PPO TensorFlow 安装 # 安装 # GPU 版本 pip install --upgrade tensorflow-gpu # CPU 版本...tf.random.normal([35,8]) tf.stack([a,b],axis=-1) # 在末尾插入班级维度 shape=(35, 8, 2) Q&A 补充 交叉熵(损失函数) 适合 概率分类 ---> one-hot...(独热)编码, one-hot 编码 避免了 某些分类问题,类别之间并无大小关系,而若用数字代表某类,则会天然存在大小关系, 例如,猫、狗、鱼、虎 分类识别,这几类之间并无大小关系,所以使用 one-hot...编码, 输出层 设 4个神经元,分别对应4个输出,各个输出分别对应为 猫、狗、鱼、虎 的概率, 猫:1、0、0、0 狗:0、1、0、0 鱼:0、0、1、0 虎:0、0、0、1 参考 《TensorFlow...深度学习》 《21个项目玩转深度学习——基于TensorFlow的实践详解》

    21230

    推荐系统遇上深度学习(一)--FM模型理论和实践

    2、one-hot编码带来的问题 FM(Factorization Machine)主要是为了解决数据稀疏的情况下,特征怎样组合的问题。...而country,day,ad_type则是对应的特征。对于这种categorical特征,一般都是进行one-hot编码处理。 将上面的数据进行one-hot编码以后,就变成了下面这样 : ?...因为是categorical特征,所以经过one-hot编码以后,不可避免的样本的数据就变得很稀疏。...举个非常简单的例子,假设淘宝或者京东上的item为100万,如果对item这个维度进行one-hot编码,光这一个维度数据的稀疏度就是百万分之一。...由此可见,数据的稀疏性,是我们在实际应用场景中面临的一个非常常见的挑战与问题。 one-hot编码带来的另一个问题是特征空间变大。

    5.9K101

    什么是 ValueError: Shapes (None, 1) and (None, 10) are incompatible错误?

    比如在多分类问题中,如果标签没有进行one-hot编码,而模型期望的是one-hot编码的标签,就会导致形状不匹配。...示例: y_true = np.array([0, 1, 2]) # 未进行 one-hot 编码 解决方案: 使用to_categorical()方法对标签进行one-hot编码。...假设我们正在训练一个图像分类模型,模型的输出层为10个节点,但标签没有进行one-hot编码,导致形状不匹配。...A: 该错误通常是由于模型的输出维度与实际标签的维度不匹配导致的。在多分类问题中,模型的输出维度应该等于类别数,而标签也应进行one-hot编码。 Q: 如何避免形状不兼容问题?...表格总结 错误场景 解决方案 模型输出层与标签形状不匹配 确保输出层节点数与标签类别数一致 使用错误的激活函数或损失函数 根据任务类型选择正确的激活函数和损失函数 标签未进行one-hot编码 使用

    13510

    入门 | 神经网络词嵌入:如何将《战争与和平》表示成一个向量?

    one-hot 编码的局限 one-hot 编码的类别变量的操作实际上是一种简单的嵌入,其中每个类别都被映射成了不同的向量。...第一个问题很容易理解:每增加一个类别(成为实体),我们都必须为 one-hot 编码的向量增加一个数。...第二个问题具有同等的局限性:one-hot 编码并不会将相似的实体放在向量空间中相近的位置。...如果使用余弦距离来衡量向量之间的相似性,那么在经过 one-hot 编码后,每一对比较的实体之间的相似度都是零。...学习嵌入 one-hot 编码的主要问题是其变换并不依赖于任何监督。通过在一个监督任务上使用神经网络来学习它们,我们可以对嵌入实现极大的提升。

    50520
    领券