CVPR 2023 已经落幕,作为人工智能领域最具影响力的学术会议,最佳论文的出炉也吸引了众多人关注。
本文为大家整理了近五年的 CVPR 获奖论文,共计23篇。
这些论文代表了当年评审专家认为最有价值的工作,对于引领学术进步起到了重要作用。
同时,本文也列出了每篇论文的目前谷歌学术显示的引用数(对于今年的获奖论文,这一信息参考性不大),比较有意思的,并不是得了最佳论文就有更多引用,甚至有些最佳论文引用数只有十几。
CVPR 2023 Awards
Best Paper 最佳论文奖
1.Visual Programming: Compositional visual reasoning without training
论文链接:https://arxiv.org/abs/2211.11559
代码链接:https://github.com/allenai/visprog
VisProg 使用 GPT 生成可执行代码,该代码解析图像并进行有效的视觉推理。如上图中直接把针对图片的编辑指令变为可执行的Python代码(该文早于ChatGPT)。
目前被引用17次。
2.Planning-oriented Autonomous Driving
论文链接:https://arxiv.org/abs/2212.10156
代码链接:https://github.com/OpenDriveLab/UniAD
UniAD将全栈自动驾驶任务整合到一个端到端网络中。
目前被引用7次。
Honorable Mention 最佳论文荣誉提名奖
DynIBaR: Neural Dynamic Image-Based Rendering
论文链接:https://arxiv.org/abs/2211.11082
代码链接:https://github.com/google/dynibar
DynIBaR是从复杂动态场景的单目视频合成新视图的新技术。
目前被引用4次。
Best Student Paper 最佳学生论文奖
3D Registration with Maximal Cliques
论文链接:https://arxiv.org/abs/2305.10854
代码链接:https://github.com/zhangxy0517/3D-Registration-with-Maximal-Cliques
一种新的3D点云配准技术,可找到对齐一对点云的最佳姿态。
Honorable Mention (Student) 最佳学生论文荣誉提名奖
DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Driven Generation
论文链接:https://arxiv.org/abs/2208.12242
代码链接:https://dreambooth.github.io/
DreamBooth是一种扩散模型,可以针对特定主题进行定制,只需 3-5 张示例图像即可。
目前被引用260次。
CVPR 2022 Awards
Best Paper 最佳论文奖
Learning to Solve Hard Minimal Problems
论文链接:https://arxiv.org/abs/2112.03424
用神经网络以及学习的方式来解传统的多视角几何问题。
目前被引用16次。
Honorable Mention 最佳论文荣誉提名奖
Dual-Shutter Optical Vibration Sensing
论文链接:https://openaccess.thecvf.com/content/CVPR2022/papers/Sheinin_Dual-Shutter_Optical_Vibration_Sensing_CVPR_2022_paper.pdf
该文研究内容为使用CV进行震动测量,使用额定仅为130Hz的传感器感知多场景中的高速震动(高达63kHz)。
目前被引用6次。
Best Student Paper 最佳学生论文奖
EPro-PnP: Generalized End-to-End Probabilistic Perspective-n-Points for Monocular Object Pose Estimation
论文链接:https://openaccess.thecvf.com/content/CVPR2022/papers/Chen_EPro-PnP_Generalized_End-to-End_Probabilistic_Perspective-N-Points_for_Monocular_Object_Pose_Estimation_CVPR_2022_paper.pdf
代码链接:https://github.com/tjiiv-cprg/EPro-PnP
从单个RGB图像中定位3D物体是计算机视觉中一个长期存在的问题。EPro-PnP是一种用于广义的端到端姿态估计的概率PnP层,输出在流形上的姿态分布。
目前被引用34次。
Honorable Mention (Student)最佳学生论文荣誉提名奖
Ref-NeRF: Structured View-Dependent Appearance for Neural Radiance Fields
论文链接:https://arxiv.org/pdf/2112.03907.pdf
在基于Ref-NeRF的视图合成中,显著提高了与视图相关的外观质量和场景合成视图中法向量的准确性。
目前被引用114次。
CVPR 2021 Awards
Best Paper 最佳论文奖
GIRAFFE: Representing Scenes as Compositional Generative Neural Feature Fields
论文链接:https://arxiv.org/abs/2011.12100
代码链接:https://github.com/autonomousvision/giraffe
用于可控图像生成。
目前被引用517次。
Honorable Mention 最佳论文荣誉提名奖
Exploring Simple Siamese Representation Learning
论文链接:https://arxiv.org/abs/2011.10566
基于Siamese网络的表示学习方法。
目前被引用2296次。
Learning High Fidelity Depths of Dressed Humans by Watching Social Media Dance Videos
论文链接:https://openaccess.thecvf.com/content/CVPR2021/papers/Jafarian_Learning_High_Fidelity_Depths_of_Dressed_Humans_by_Watching_Social_CVPR_2021_paper.pdf
该论文提出了一种利用社交媒体上的舞蹈视频学习人类深度信息的方法。
目前被引用36次。
Best Student Paper 最佳学生论文奖
Task Programming: Learning Data Efficient Behavior Representations
论文链接:https://arxiv.org/abs/2011.13917
代码链接:https://github.com/neuroethology/TREBA
该论文提出了一种通过任务编程来学习能够高效表示行为的方法。
目前被引用36次。
Honorable Mention (Student) 最佳学生论文荣誉提名奖
Less is More: ClipBERT for Video-and-Language Learning via Sparse Sampling
论文链接:https://arxiv.org/abs/2102.06183
代码链接:https://github.com/jayleicn/ClipBERT
通过稀疏采样进行视频和语言学习的研究论文。该论文提出了一种名为ClipBERT的方法,通过有效地选择稀疏样本来进行视频和语言的联合学习。
目前被引用355次。
Binary TTC: A Temporal Geofence for Autonomous Navigation
论文链接:https://arxiv.org/abs/2101.04777
该论文提出了一种使用TTC临时地理围栏的方法来辅助自主导航系统进行安全决策。
目前被引用18次。
Real-Time High-Resolution Background Matting
论文链接:https://arxiv.org/abs/2012.07810
代码链接:https://github.com/PeterL1n/BackgroundMattingV2
一篇关于实时高分辨率背景抠图的研究论文。该论文提出了一种实时高分辨率背景抠图的方法,用于将前景对象从图像或视频中准确地分割出来,并替换为新的背景。
目前被引用122次。
CVPR 2020 Awards
Best Paper 最佳论文奖
Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images in the Wild
论文链接:https://arxiv.org/abs/1911.11130
代码链接:https://github.com/elliottwu/unsup3d
该论文提出了一种无监督学习方法,通过非理想条件下的图像来推断可能具有对称性和可变形性质的三维物体。
目前被引用244次。
Best Student Paper 最佳学生论文
BSP-Net: Generating Compact Meshes via Binary Space Partitioning
论文链接:https://arxiv.org/abs/1911.06971
代码链接:https://github.com/czq142857/BSP-NET-original
该论文提出了一种名为BSP-Net的方法,通过使用二叉空间划分来生成具有较少面片数量但保持准确性的紧凑网格模型。
目前被引用206次。
Honorable Mention (Student) 最佳学生论文提名奖
DeepCap: Monocular Human Performance Capture Using Weak Supervision
论文链接:https://arxiv.org/abs/2003.08325
代码链接:https://people.mpi-inf.mpg.de/~mhaberma/projects/2020-cvpr-deepcap/
该论文提出了一种名为DeepCap的方法,通过利用弱监督信号来实现单目人体表现捕捉。
目前被引用152次。
CVPR 2019 Awards
Best Paper 最佳论文奖
A Theory of Fermat Paths for Non-Line-of-Sight Shape Reconstruction
论文链接:https://imaging.cs.cmu.edu/fermat_paths/assets/cvpr2019.pdf
提出了一种基于费马路径理论的非视距(non-line-of-sight ,NLOS)形状重建方法,用于通过间接反射的光线重建被遮挡物体的几何形状。
目前被引用155次。
Honorable Mention 最佳论文荣誉提名奖
A Style-Based Generator Architecture for Generative Adversarial Networks
论文链接:https://arxiv.org/abs/1812.04948
提出了一种基于风格的生成对抗网络生成器架构,通过在潜在空间中操作风格向量来控制生成图像的风格和多样性。
目前被引用7419次。
Learning the Depths of Moving People by Watching Frozen People
论文链接:https://arxiv.org/abs/1904.11111
通过观察静止人物来学习移动人物的深度信息,从而实现对动态场景中人物深度的学习。
目前被引用217次。
Best Student Paper 最佳学生论文奖
Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vision-Language Navigation
论文链接:https://arxiv.org/abs/1811.10092
基于强化交叉模态匹配和自监督模仿学习,在视觉-语言导航任务中进行研究,以提高导航系统的性能。
目前被引用414次。
感谢每一位在探索技术前沿的路上勇敢并努力的人!
趋动云携便捷且强大的算力,愿助力更多有影响力工作的诞生!
领取专属 10元无门槛券
私享最新 技术干货