首页
学习
活动
专区
工具
TVP
发布

机器之心

专栏作者
8963
文章
6325323
阅读量
278
订阅数
南洋理工大学最新视觉语言模型综述:预训练、迁移学习和知识蒸馏啥都有
作为计算机视觉(CV)研究中长期存在的挑战,视觉识别(如图像分类、目标检测和语义分割)是自动驾驶、遥感等众多计算机视觉应用的基石。深度学习的出现使得视觉识别取得了巨大成功。然而,现有的视觉识别研究大多依赖于昂贵的标注数据进行深度神经网络训练,并且通常需要为每个任务训练一个独立的网络,这导致了耗时费力的识别模式。
机器之心
2023-08-08
3070
「导师要我的论文和别人共同一作」,Nature揭露论文署名乱象:没贡献为啥要署名?
机器之心报道 编辑:小舟、杜伟 在科研界,论文署名以及顺序一直是研究人员非常重视的问题。由于各种原因,署名排序过程中难免会出现分歧与争议。近日,《Nature》 对论文署名问题进行了调查,指出了一些不好的现象,并希望能够创建一个公平的论文个人贡献评价系统。 在学术论文中,多位作者通常会根据贡献大小按序署名。这是一种惯例,人们也往往根据署名次序判断研究者的贡献大小。 然而,《Nature》最近的一篇报道表明:有些署名的作者根本没有为研究做出任何贡献。 这种乱象在初级研究人员群体中较为常见。许多初级研究者在研究
机器之心
2023-03-29
4610
华人一作占半数,陶大程等人上榜,CVPR公布32篇最佳论文候选
机器之心报道 编辑:杜伟 CVPR 2021 最佳论文候选名单公布。 国际计算机视觉与模式识别会议(Conference on Computer Vision and Pattern Recognition,以下简称 CVPR)是计算机视觉会议的世界三大顶会之一(另外两个是 ICCV 和 ECCV),于每年的 6 月举办。 2 月底,CVPR 2021 官方公布了论文接收情况。今年,大会一共接收了 7015 篇有效投稿,其中进入 Decision Making 阶段的共有约 5900 篇,最终有 1663
机器之心
2023-03-29
3220
机器人真·涨姿势了:比肩人类抓取能力,上海交大、非夕科技联合提出全新方法AnyGrasp
机器之心发布 机器之心编辑部 在近日召开的 ICRA (国际机器人与自动化会议)大会上,上海交大-非夕科技联合实验室展示了最新研究成果「AnyGrasp」(https://graspnet.net/anygrasp.html),第一次实现机器人对于任意场景的任意物体的通用高速抓取,在机械臂硬件构型、相机不作限制的情况下,让机器人拥有比肩人类抓取能力的可能。 基于视觉的机器人通用抓取,一直是学界和业界的关注重点,也是机器人智能领域亟待解决的问题之一。 针对物体抓取,业界通常需要先对物体进行三维建模,然后训练网
机器之心
2023-03-29
5680
ICCV 2021审稿结果出炉,有人已总结出了一份Rebuttal写作指南
机器之心报道 编辑:蛋酱、泽南 又一个计算机视觉顶会通过了审稿阶段。论文评分是这样,想好怎么 rebuttal 了吗? 作为计算机视觉领域三大会议之一的 ICCV(IEEE International Conference on Computer Vision)每年都会吸引众多 AI 研究人员参会。在谷歌的学术指标榜单 Scholar Metrics 上,ICCV 目前名列总榜第 29 位,是计算机视觉领域排名第二的大会。 ICCV 2021 原定的主办地点是加拿大蒙特利尔,由于疫情的关系已改为线上举行,时
机器之心
2023-03-29
7100
小鹏VPA实测:地下的自动泊车场景,怕是比你想象中更复杂
Auto Byte报道 作者:曹锦、George.W 地下停车场,在大家的印象中,可能都是电影中那种「开阔得足够飞车枪战」的场地——行人不多、划线清晰、指示明显,也不具备路面上的复杂路况,看似对于自动驾驶车辆来说难度不大。但其实,目前能给出这「最后一公里」解决方案并实现普遍应用的汽车品牌,仍然没有几家。 去年9月,威马汽车就曾推出一项名为「AVP无人泊车」的功能,但根据测评,该功能无法脱离人工监管,与记忆泊车几乎没有差别,而且仅支持最长150米的记忆路线,并且路线上限只有五条。更重要的是,AVP并不支持避障
机器之心
2023-03-29
6620
入门迁移学习,跟着知乎大V王晋东的这个火热开源项目来学习(赠书)
AI圈喜欢逛知乎的小伙伴很多应该知道知名大V@王晋东不在家数年前开源的《迁移学习简明手册》。该手册,是作者王晋东根据自己在迁移学习领域的学习和研究心得进行系统性梳理的成果,非常适合初学者学习。 手册上线3年多的时间里备受好评,帮助了大量AI从业者快速入门迁移学习。如今,《迁移学习简明手册》代码库和手册分别已经在Github上收获了 7K 和 2K 多星标。 现在,这本手册已全面更新,形成《迁移学习导论》一书,已经出版上市。 该书从初学者入门的角度,循序渐进地引入迁移学习的相关概念、问题、方法和应用,结
机器之心
2023-03-29
3540
国内数十位NLP大佬合作,综述预训练模型的过去、现在与未来
机器之心报道 机器之心编辑部 来自清华大学计算机科学与技术系、中国人民大学信息学院等机构的多位学者深入地研究了预训练模型的历史和发展趋势,并在这篇综述论文中从技术的角度理清了预训练的来龙去脉。 BERT 、GPT 等大规模预训练模型(PTM)近年来取得了巨大成功,成为人工智能领域的一个里程碑。由于复杂的预训练目标和巨大的模型参数,大规模 PTM 可以有效地从大量标记和未标记的数据中获取知识。通过将知识存储到巨大的参数中并对特定任务进行微调,巨大参数中隐式编码的丰富知识可以使各种下游任务受益。现在 AI 社区
机器之心
2023-03-29
4380
覆盖四种场景、包含正负向反馈,腾讯、西湖大学等发布推荐系统公开数据集Tenrec
近些年来,通过各种内容平台浏览视频或者是阅读文章的用户越来越多,而现有的推荐算法有时难以很好地建模用户的偏好,因此需要更准确的推荐系统模型。但已知的推荐系统(RS)的基准数据集要么是小规模的,要么是用户反馈形式非常有限。在这些数据集上评估的推荐系统模型往往缺乏实用性,难以为大规模真实场景应用提供足够的价值。
机器之心
2022-12-16
8350
Bengio、LeCun 等人联名上书,呼吁美国投资神经AI,攻破「具身图灵测试」
「长期以来,神经科学一直是人工智能进步的重要驱动力。我们提议,为了加速人工智能的进展,必须投资于 NeuroAI 的基础研究。」
机器之心
2022-12-15
2200
固定参数的模型有多大潜力?港中文、上海AI Lab等提出高效视频理解框架EVL
机器之心专栏 机器之心编辑部 来自香港中文大学、上海人工智能实验室等机构的研究者提出了高效的视频理解迁移学习框架 EVL,通过固定骨干基础模型的权重,节省了训练计算量和内存消耗。 视觉基础模型近两年取得了瞩目发展。从一方面而言,基于大规模互联网数据的预训练已经给模型预置了大量的语义概念,从而具有良好的泛化性能;但另一方面,为充分利用大规模数据集带来的模型尺寸增长,使得相关模型在迁移到下游任务时面临着低效率问题,尤其是对于需要处理多帧的视频理解模型。 论文链接:https://arxiv.org/abs/2
机器之心
2022-10-08
3330
南洋理工大学Lu Shijian教授课题组招聘计算机视觉方向博士后
新的一期博士招生正式启动!本期我们将为大家介绍新加坡南洋理工大学 Lu Shijian 教授课题组招聘计算机视觉方向博士后的相关信息。 学校简介 南洋理工大学(Nanyang Technological University),简称南大、NTU,是新加坡的一所顶尖研究型大学。 导师简介 Lu Shijian 现任南洋理工大学计算机学院副教授,主要研究方向包括计算机视觉和机器学习。计算机视觉方向主要关注图像生成、目标检测和语义分割;机器学习方向主要关注迁移学习、半监督、和无监督学习。他的研究成果发表在多个会
机器之心
2022-09-26
1.2K0
ICLR 2022 | 减少跨语言表示差异,字节跳动AI Lab通过流形混合增强跨语言迁移
机器之心发布 字节跳动人工智能实验室、加利福尼亚大学圣塔芭芭拉分校 字节跳动人工智能实验室和加利福尼亚大学圣塔芭芭拉分校的研究者提出了跨语言流形混合(X-Mixup)方法为目标语言提供 “折衷” 的表示,让模型自适应地校准表示差异。此方法不仅显著地减少了跨语言表示差异,同时有效地提升了跨语言迁移的效果。 基于多语言预训练语言模型(比如 mBert、XLM-R 等),各种跨语言迁移学习方法取得了不错的迁移效果,但其中许多目标语言的性能仍然远远落后于源语言。字节跳动人工智能实验室和加利福尼亚大学圣塔芭芭拉分校通
机器之心
2022-05-30
5320
CVPR 2022 Oral | 大连理工提出小样本识别DeepBDC,6项基准性能最好
机器之心专栏 作者:谢江涛、龙飞、吕佳铭、王旗龙、李培华 在本文中,来自大连理工大学等机构的研究者提出了 DeepBDC 用于小样本分类任务,DeepBDC 通过度量样本对之间的联合分布从而获得更准确的相似度,极大的提升了小样本分类的性能。论文已被 CVPR 2022 接收为 Oral Presentation。 本文首次将布朗距离协方差这一基于概率和统计的相似性度量引入到深度学习中,提出了一种端到端的小样本识别方法 DeepBDC。所提出的方法在包括一般目标识别、细粒度分类和跨域分类等任务的 6 个标准数
机器之心
2022-04-24
6880
CVPR 2022 | CNN自监督预训练新SOTA:上交、Mila、字节联合提出具有层级结构的图像表征自学习新框架
机器之心专栏 机器之心编辑部 来自上海交通大学、Mila 魁北克人工智能研究所以及字节跳动的研究者提出了一种具有层级语义结构的自监督表征学习框架,在 ImageNet 数据集上预训练的模型在多个下游任务中取得了 SOTA 性能。 层级结构无处不在,自然界中存在「界 - 门 - 纲 - 类 - 科 - 属 - 种」这样的层级关系, 大规模自然图像数据集中也天然存在。例如,ImageNet 数据集的类别标签本身就是基于 WordNet 层级形成的, 我们总是可以「刨根问底」地找到某个类别的「父类」。举例而言,拉
机器之心
2022-03-09
6320
一年一总结的NLP年度进展,2021年有哪些研究热点?
2021 年,ML 和 NLP 领域取得了很多激动人心的进展。在 Sebastian Ruder 的最新博客《ML and NLP Research Highlights of 2021》中,他介绍了自己认为最具有启发意义的论文和研究领域。
机器之心
2022-02-23
1.2K0
比MAE更强,FAIR新方法MaskFeat用HOG刷新多个SOTA
自监督预训练在自然语言处理方面取得了惊人的成功,其基本思路中包含着掩码预测任务。前段时间,何恺明一作的论文《Masked Autoencoders Are Scalable Vision Learners》提出了一种简单实用的自监督学习方案 MAE,将 NLP 领域的掩码预测(mask-and-predict)方法用在了视觉问题上。现在来自 Facebook AI 研究院(FAIR)的研究团队又提出了一种自监督视觉预训练新方法 MaskFeat。
机器之心
2022-02-18
4620
中山大学林倞解读视觉语义理解新趋势:从表达学习到知识及因果融合
2021 年模式识别与机器智能前沿研讨会于 10 月 29 日上午线上举行。会议由中国自动化学会模式识别与机器智能(Pattern Recognition and Machine Intelligence,PRMI)主办,旨在将从事模式识别与人工智能各个方向的顶尖学者与研究人员聚集在一起进行技术分享,以便开展相关领域的交流与合作。在研讨会中,来自中山大学的林倞教授分享了关于《视觉语义理解的新趋势:从表达学习到知识及因果融合》的报告。表达学习和知识推理一直是模式识别与计算机视觉中的核心研究内容,两者的有效结合将成为打开当代通用人工智能的第一扇门。然而在机器视觉的背景下,如何将认知推理、知识表示与机器学习等多个领域的技术融会打通,依然是一个极具挑战和迫切的难题。
机器之心
2021-11-18
7580
准确率可提升50%以上,Facebook用迁移学习改进代码自动补全
代码自动补全功能(应用程序预测文本输入中的下一项)已成为消息传递等任务中便捷且广泛使用的工具,也是用于计算机编程所需的集成开发环境(IDE)最重要功能之一。
机器之心
2021-06-08
3550
AutoML大提速,谷歌开源自动化寻找最优ML模型新平台Model Search
神经网络的成功通常取决于在多种任务上的泛化性能。然而,设计此类神经网络很有难度,因为研究社区对神经网络如何泛化仍没有充分的了解:对于给定问题,什么样的神经网络是适合的?深度如何?应该使用哪种层?LSTM 层就可以了,还是使用 Transformer 更好一些?抑或将二者结合?集成或蒸馏会提升模型性能吗?
机器之心
2021-03-15
3430
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档