首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

P2C-自监督点云补全,只需用单一部分点云

点云补全是指根据部分点云恢复完整的点云形状。现有方法需要完整的点云或同一对象的多个部分点云来进行训练。与以前的方法形成对比,本论文提出的Partial2Complete (P2C)第一个仅需要每个对象的单个不完整点云就可以进行自监督学习的框架。具体而言,我们的框架将不完整点云分组为局部点云块作为输入,预测被遮挡的点云块,通过观察不同的局部对象学习先验信息。我们还提出了区域敏感Chamfer距离以正则化形状误匹配,不限制补全能力,并设计了法线一致性约束,鼓励恢复的形状表面连续完整。这样,P2C不再需要完整形状作为监督,而是从类别特定数据集中学习结构线索,补全部分点云。我们在人工ShapeNet数据和真实ScanNet数据上证明了我们方法的有效性,结果显示P2C产生了与完整形状训练方法可媲美的结果,并优于多视角训练的方法。

02

如何用全流量检测5G核心网网元服务异常

华为5G安全白皮书[1]中提到5G安全的两个目标,其中一项是:提供方法和机制来保护建立在5G平台上的服务。基于这个目标,新架构,新挑战:5G核心网业务安全问题与异常检测一文中提出了网元服务所面临的三个基本问题:调用序列,调用参数异常与调用频率异常,阐释了针对这三种异常的检测思路,并提出了针对序列异常的解决方案。本文在这篇文章的基础上进行进一步研究与实验,设计了网元服务异常检测原型,明确了原型中各个模块的技术路线。将已有网元威胁分析输出的场景在原型进行测试,输出检测结果。结果中包含将异常场景映射到检测基线的全部特征。

01

ICCV2023 | Masked Diffusion Transformer: 增强扩散模型对上下文关系的理解

在这项工作中,我们首先观察到DPMs通常难以学习图像中物体部分之间的关联关系,导致训练过程缓慢。为了解决这个问题,提出了一种有效的掩码扩散变换器(Masked Diffusion Transformer,MDT),以提高DPMs的训练效率。MDT引入了一个蒙面潜在建模方案,专门为基于Transformer的DPMs设计,以明确增强上下文学习能力并改进图像语义之间的关联关系学习。MDT在潜在空间中进行扩散过程以节省计算成本。它对某些图像标记进行掩码,并设计了一个不对称的掩码扩散变换器(AMDT),以一种扩散生成的方式预测被掩码的标记。MDT可以从其上下文不完整的输入中重建图像的完整信息,学习图像语义之间的关联关系。

04
领券