首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

Nature Machine Intelligence | 三种类型的增量学习

今天给大家带来一篇剑桥大学有关增量学习的文章。从非平稳的数据流中渐进地学习新信息,被称为“持续学习”,是自然智能的一个关键特征,但对深度神经网络来说是一个具有挑战性的问题。近年来,许多用于持续学习的深度学习方法被提出,但由于缺乏共同的框架,很难比较它们的性能。为了解决这个问题,我们描述了持续学习的三种基本类型或“场景”:任务增量式学习、领域增量式学习和类增量式学习。每一种情况都有自己的挑战。为了说明这一点,作者通过根据每个场景执行Split MNIST和Split CIFAR-100协议,对目前使用的持续学习策略进行了全面的实证比较。作者证明了这三种情况在难度和不同策略的有效性方面存在实质性差异。提出的分类旨在通过形成清晰定义基准问题的关键基础来构建持续学习领域。

02

ECCV2020 | RecoNet:上下文信息捕获新方法,比non-local计算成本低100倍以上

上下文信息在语义分割的成功中起着不可或缺的作用。事实证明,基于non-local的self-attention的方法对于上下文信息收集是有效的。由于所需的上下文包含空间和通道方面的注意力信息,因此3D表示法是一种合适的表达方式。但是,这些non-local方法是基于2D相似度矩阵来描述3D上下文信息的,其中空间压缩可能会导致丢失通道方面的注意力。另一种选择是直接对上下文信息建模而不进行压缩。但是,这种方案面临一个根本的困难,即上下文信息的高阶属性。本文提出了一种新的建模3D上下文信息的方法,该方法不仅避免了空间压缩,而且解决了高阶难度。受张量正则-多态分解理论(即高阶张量可以表示为1级张量的组合)的启发,本文设计了一个从低秩空间到高秩空间的上下文重建框架(即RecoNet)。具体来说,首先介绍张量生成模块(TGM),该模块生成许多1级张量以捕获上下文特征片段。然后,使用这些1张量通过张量重构模块(TRM)恢复高阶上下文特征。大量实验表明,本文的方法在各种公共数据集上都达到了SOTA。此外,与传统的non-local的方法相比,本文提出的方法的计算成本要低100倍以上。

02

谷歌开源BERT不费吹灰之力轻松训练自然语言模型

目前自然语言处理模型是人工智能的前沿科技,他们是很多AI系统与用户交互的接口。NLP 发展的主要阻碍来自于模型对于高质量标记数据的依赖。由于语言是一个任何事物都可以应用的普遍交流的机制,这也意味着很难找到一个特定领域的注解数据去训练模型。针对这个挑战, NLP 模型 决定先使用大量的没有标签的数据训练语言原理。非常有名的预训练模型包括 Word2Vec,Glove 或者FasText。然而 预训练模型有自己的挑战,对于大量数据的上下文关系的表达常常失败。最近来自GOOGLE AI 语言团队的研究者们开放了 BERT项目的源代码,一个为预训练语言表达而生的库,并且其训练结果达到了很不错的效果。

07

Redis作者谈如何编写系统软件的代码注释

顶顶大名的Redis作者谈如何在Redis这样系统软件上进行代码文档注释,以下是九种注释类型的大意说明: 很长一段时间以来,我一直想在YouTube上发布一段“如何对系统软件文档注释”的新视频,讨论如何进行代码注释,然而,经过一番思考后,我意识到这个主题更适合博客文章。在这篇文章中,我分析了Redis的文档注释,试图对它们进行分类。在此过程中,我试图说明为什么编写注释对于生成良好的代码是至关重要,从长远来看,这些代码是可维护的,并且在修改和调试期间可由其他人和作者自己理解。 并不是每个人都这么想,许多人认为,如果代码足够扎实,代码具有自明性,无需文档注释了。这个想法前提是,需要一切都设计得很完美,代码本身会有文档注释的作用,因此再加上代码注释是多余的。 我不同意这个观点有两个主要原因: 1. 许多注释并不是解释代码的作用,而是解释*为什么*代码执行这个操作,或者为什么它正在做一些清晰的事情,但却不是感觉更自然的事情?注释是解释一些你无法理解的东西。(banq注:根据海德格尔存在主义哲学观点,注释是解释代码的存在意义,如果注释时说明代码作用,那是在说明代码的存在方式,代码的功能作用是代码的存在方式,不是存在意义,存在意义与编写者动机和阅读者的理解有关,与其上下文场景有关) 2.虽然一行一行地记录代码做些什么通常没有用,因为通过阅读代码本身也是可以理解的,编写可读代码的关键目标是减少工作量和细节数量。但是应该考虑其他阅读者在阅读一些代码时他们的思考角度和进入门槛的难易程度。因此,对我而言,文档注释可以成为降低阅读者认知负担的工具。 以下代码片段是上面第二点的一个很好的例子。请注意,此博客文章中的所有代码段都是从Redis源代码中获取的。

06

DSSD : Deconvolutional Single Shot Detector

本文的主要贡献是将附加上下文引入到最先进的一般目标检测中。为了实现这一点,我们首先结合了一个最先进的分类器和一个快速检测框架。然后,我们使用反褶积层来增加SSD+Residual-101,以在目标检测中引入额外的大规模上下文,并提高准确性,特别是对于小目标,我们将生成的系统DSSD称为反卷积单阶段检测器。虽然这两个贡献很容易在高层进行描述,但是一个简单的实现是不会成功的。相反,我们展示了仔细添加额外的学习转换阶段,特别是反褶积中的前馈连接模块和一个新的输出模块,使这种新方法成为可能,并为进一步的检测研究形成了一个潜在的前进道路。结果表明,PASCAL VOC和COCO 检测。我们的513×513输入的DSSD在VOC2007测试中实现了81.5%的mAP,在VOC 2012测试中实现了80.0%的mAP,在COCO上实现了33.2%的mAP,在每个数据集上都优于目前最先进的R-FCN方法。

03
领券