首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    脑机接口中的流形嵌入知识迁移学习

    迁移学习利用一个问题中的数据或知识来帮助解决另一个不同但相关的问题。它在脑机接口(BCIs)中特别有用,可以用于处理不同学科和/或任务之间的差异。研究人员考虑了离线无监督多受试者脑电图(EEG)分类,即已经对一个或多个源受试者进行了标记脑电图试验,但只对目标受试者进行了未标记脑电图试验。研究人员提出一个新颖的流形嵌入知识迁移方法(MEKT), 该方法首先在黎曼流形中对齐EEG试验的协方差矩阵,提取切空间中的特征,然后通过最小化源之间的联合概率分布转变源和目标域,同时保留其几何结构。MEKT可以处理一个或多个源域,可以有效地计算。针对存在大量的源域问题,研究人员提出了一种域可迁移性估计(DTE)的方法来识别最有利的源域。

    02

    Nat. Mach. Intel. | 可解释性图像识别的概念白化方法

    今天给大家介绍的是ZhiChen等人在Nature Machine Intelligence上发表的文章“Concept whitening for interpretableimage recognition”。机器学习中的可解释性无疑是重要的事情,但是神经网络的计算通常是很难理解的。在这里,论文不是试图事后分析一个神经网络,而是引入一种称为概念白化(CW,concept whitening)的机制来改变网络的一个给定层,使我们能够更好地理解该层的计算。当CW模块被添加到卷积神经网络时,潜在空间被白化(即,去相关和归一化),并且潜在空间的轴会与已知的感兴趣的概念对齐。通过实验,论文发现CW可以使我们更清楚地了解网络是如何通过分层学习概念的。CW是BatchNormalization(BN)层的一种替代方法,因为它对潜在空间进行了标准化,也进行了去相关(白化)。CW可以用于网络的任何一层而不影响预测性能。

    03

    WSDM'23 | CL4CTR:用于CTR预测的对比学习框架

    现有点击率建模忽略了特征表征学习的重要性,例如,为每个特征采用简单的embedding层,这导致了次优的特征表征,从而降低了CTR预测性能。例如,在许多CTR任务中占大多数特征的低频特征在标准监督学习设置中较少被考虑,导致次优特征表示。本文引入了自监督学习来直接生成高质量的特征表征,并提出了一个模型不可知的CTR对比学习(CL4CTR)框架,该框架由三个自监督学习信号组成,以规范特征表征学习:对比损失、特征对齐和域一致性。对比模块首先通过数据增强构造正特征对,然后通过对比损失最小化每个正特征对的表征之间的距离。特征对齐约束迫使来自同一域的特征的表征接近,而域一致性约束迫使来自不同域的特征表征远离。

    03

    重拾非学习的策略:一种新颖的点云配准问题设置

    这个工作来自于上海交通大学,发表于CVPR 2022。我们知道,三维点云配准是三维视觉以及点云相关任务中的一个关键课题。早期最具有代表性的三维点云配准的工作是ICP,其根据点匹配估计输入点云的相对位姿。近年来随着深度学习技术的发展进步,基于深度学习的三维点云配准方法成为研究的主流,并随之诞生了DeepVCP、DGR、Predator等著名的方法。但这个工作重新聚焦于非学习的策略,通过聚类策略实现了先进的性能。同时,这个工作提出了一个新颖的点云配准问题设定,称为multi-instance point cloud registration,即同时估计某个instance的源点云与多个目标instance组成的目标点云中的每个instance的相对位姿。

    03
    领券