论文地址:http://arxiv.org/pdf/1911.11763v2.pdf 代码:https://github.com/magicleap/supergluepretrainednetwork. 来源:苏黎世联邦理工学院 论文名称:SuperGlue: Learning Feature Matching with Graph Neural Networks 原文作者:Paul-EdouardSarlin
本文介绍了一种通过联合查找对应点和剔除不匹配点来匹配两组局部特征的神经网络——SuperGlue。通过求解可微最优运输问题来估计分配,损失由图神经网络预测。我们引入了一种基于注意力的灵活的context聚合机制,使SuperGlue能够推出底层3D场景和连带的特征分配。与传统的hand-designed启发式相比,本文的技术通过从图像对的端到端训练学习3D世界的几何变换和规则的先验知识。在真实的室内和室外环境的姿态估计任务中,SuperGlue的性能表现SOTA。该方法在GPU上进行实时匹配,可以很容易地集成到SfM或SLAM系统中。
下面是论文具体框架结构以及实验结果:
人工智能,每日面试题:
对于k折交叉验证, 以下对k的说法正确的是:
A.k越大,不一定越好, 选择大的k会加大评估时间
B.选择更大的k, 就会有更小的bias (因为训练集更加接近总数据集)
C.在选择k时, 要最小化数据集之间的方差
D.以上所有
每日面试题,答案:
号主答案:D
解析:
k越大, bias越小, 训练时间越长. 在训练时, 也要考虑数据集间方差差别不大的原则. 比如, 对于二类分类问题, 使用2-折交叉验证, 如果测试集里的数据都是A类的, 而训练集中数据都是B类的, 显然, 测试效果会很差。
声明:文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请联系删除。