前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >CV大神谢赛宁离职Meta加入纽约大学,与何恺明共著ResNeXt

CV大神谢赛宁离职Meta加入纽约大学,与何恺明共著ResNeXt

作者头像
新智元
发布2022-09-13 14:44:46
8200
发布2022-09-13 14:44:46
举报
文章被收录于专栏:新智元


新智元报道  

编辑:桃子

【新智元导读】近日,ResNeXt一作谢赛宁宣布将从Meta离职加入纽约大学。

CV大佬谢赛宁将要从Meta离职加入纽约大学。

他表示,自己将要结束4年在FAIR的研究生活,2023年1月将在纽约大学担任助理教授。

他即将于图灵奖得主Yann LeCun成为新同事。LeCun发文表示,「欢迎赛宁」。

据个人主页介绍,谢赛宁本科毕业于上海交通大学,18年获加州大学圣迭戈分校CS博士学位。

毕业后,便在Facebook AI Research (FAIR)担任研究科学家。

他曾有过丰富的实习经历,包括在NEC Labs、Adobe、Facebook、Google、DeepMind。

他的主要研究方向包括深度学习和计算机视觉,并致力于改进表示学习技术,以帮助机器理解和利用大量的结构化信息,并通过学习更好的表示来推动视觉识别的边界。

为什么说谢赛宁是CV级大佬,还得从他的学术研究成果说起。

一作谢赛宁与何恺明大神共同提出了用于图像分类的简单、高度模块化的网络结构ResNeXt,这篇论文发表在了2017CVPR上。

ResNeXt提出了一种介于普通卷积核深度可分离卷积的这种策略:分组卷积,它通过控制分组的数量(基数)来达到两种策略的平衡。

分组卷积的思想是源自Inception,不同于Inception的需要人工设计每个分支,ResNeXt的每个分支的拓扑结构是相同的。最后再结合残差网络,得到的便是最终的ResNeXt。

论文地址:https://arxiv.org/abs/1611.05431

还有今年1月,由谢赛宁带领的团队发表了一篇「A ConvNet for the 2020s」论文,掀起CV圈模型架构之争。

要知道,过去一年,Transformer频频跨界视觉领域,同时投身这一方向的研究学者越来越多。

而这篇论文的提出,带来了全新的纯卷积模型ConvNeXt。

此外,在2021年,他还与何恺明合作一篇「Masked Autoencoders Are Scalable Vision Learners」。

论文中,提出了一种用于计算机视觉的Masked AutoEncoders 掩蔽自编码器,简称MAE,一种类似于NLP技术的自我监督方法。

操作很简单:对输入图像的随机区块进行掩蔽,然后重建缺失的像素。

主要有两个核心设计:一个是非对称的编码-解码架构,一个高比例遮蔽输入图像。

目前,谷歌学者主页中,谢赛宁所有著作的引用量已超过2万。其中被引数最多的一篇论文便是他以一作身份提出的ResNeXt。

接下来,他将要离开FAIR,加入纽约大学,并阐述了未来自己的研究方向。

许多学界学者为其送上了祝福。

参考资料:

https://twitter.com/sainingxie/status/1565002386879328257

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-09-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 【新智元导读】近日,ResNeXt一作谢赛宁宣布将从Meta离职加入纽约大学。
相关产品与服务
图像处理
图像处理基于腾讯云深度学习等人工智能技术,提供综合性的图像优化处理服务,包括图像质量评估、图像清晰度增强、图像智能裁剪等。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档