前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >面向超网络的连续学习:新算法让人工智能不再“灾难性遗忘”

面向超网络的连续学习:新算法让人工智能不再“灾难性遗忘”

作者头像
AI科技评论
发布于 2020-01-16 07:39:32
发布于 2020-01-16 07:39:32
1.9K0
举报
文章被收录于专栏:AI科技评论AI科技评论

作者 | 十、年

编辑 | Camel

人脑显然是人工智能追求的最高标准。

毕竟人脑使得人类拥有了连续学习的能力以及情境依赖学习的能力。

这种可以在新的环境中不断吸收新的知识和根据不同的环境灵活调整自己的行为的能力,也正是深度学习系统与人脑相差甚远的重要原因。

想让传统深度学习系统获得连续学习能力,最重要的是克服人工神经网络会出现的“灾难性遗忘”问题,即一旦使用新的数据集去训练已有的模型,该模型将会失去对原数据集识别的能力。

换句话说就是:让神经网络在学习新知识的同时保留旧知识。

前段时间,来自苏黎世联邦理工学院以及苏黎世大学的研究团队发表了一篇名为《超网络的连续学习》(Continual learning with hypernetworks)的研究。提出了任务条件化的超网络(基于任务属性生成目标模型权重的网络)。该方法能够有效克服灾难性的遗忘问题。

具体来说,该方法能够帮助在针对多个任务训练网络时,有效处理灾难性的遗忘问题。除了在标准持续学习基准测试中获得最先进的性能外,长期的附加实验任务序列显示,任务条件超网络(task-conditioned hypernetworks )表现出非常大的保留先前记忆的能力。

hypernetworks

在苏黎世联邦理工学院以及苏黎世大学的这项工作中,最重要的是对超网络(hypernetworks)的应用,在介绍超网络的连续学习之前,我们先对超网络做一下介绍。

hyperNetwork是一个非常有名的网络,简单说就是用一个网络来生成另外一个网络的参数。工作原理是:用一个hypernetwork输入训练集数据,然后输出对应模型的参数,最好的输出是这些参数能够使得在测试数据集上取得好的效果。简单来说hypernetwork其实就是一个meta network。

传统的做法是用训练集直接训练这个模型,但是如果使用hypernetwork则不用训练,抛弃反向传播与梯度下降,直接输出参数,这等价于hypernetwork学会了如何学习图像识别

论文下载见文末

在《hypernetwork》这篇论文中,作者使用 hyperNetwork 生成 RNN 的权重,发现能为 LSTM 生成非共享权重,并在字符级语言建模、手写字符生成和神经机器翻译等序列建模任务上实现最先进的结果。超网络采用一组包含有关权重结构的信息的输入,并生成该层的权重,如下图所示。

超网络生成前馈网络的权重:黑色连接和参数与主网络相关联,而橙色连接和参数与超网络相关联。

超网络的连续学习模型

在整个工作中,首先假设输入的数据{X(1),......X(T)}是可以被储存的,并能够使用输入的数据计算Θ(T −1)。另外,可以将未使用的数据和已经使用过数据进行混合来避免遗忘。假设F(X,Θ)是模型,那么混合后的数据集为{(X(1),Yˆ(1)),。。。,(X(T−1),Yˆ(T−1)),(X(T),Yˆ(T))},其中其中Yˆ(T)是由模型f(.,Θ(t−1))生成的一组合成目标。

然而存储数据显然违背了连续学习的原则,所以在在论文中,作者提出了一种新的元模型fh(e(t),Θh)做为解决方案,新的解决方案能够将关注点从单个的数据输入输出转向参数集{Θ(T)},并实现非储存的要求。这个元模型称为任务条件超网络,主要思想是建立任务e(t)和权重Θ的映射关系,能够降维处理数据集的存储,大大节省内存。

在《超网络的连续学习》这篇论文中,模型部分主要有3个部分,第一部分是任务条件超网络。首先,超网络会将目标模型参数化,即不是直接学习特定模型的参数,而是学习元模型的参数,从而元模型会输出超网络的权重,也就是说超网络只是权重生成器。

图a:正则化后的超网络生成目标网络权重参数;图b:迭代地使用较小的组块超网络产生目标网络权重。

然后利用带有超网络的连续学习输出正则化。在论文中,作者使用两步优化过程来引入记忆保持型超网络输出约束。首先,计算∆Θh(∆Θh的计算原则基于优化器的选择,本文中作者使用Adam),即找到能够最小化损失函数的参数。损失函数表达式如下图所示:

注:Θ∗ h是模型学习之前的超网络的参数;∆Θh为外生变量;βoutput是用来控制正则化强度的参数。

然后考虑模型的e(t),它就像Θh一样。在算法的每一个学习步骤中,需要及时更新,并使损失函数最小化。在学习任务之后,保存最终e(t)并将其添加到集合{e(T)}。

模型的第二部分是用分块的超网络进行模型压缩。超网络产生目标神经网络的整个权重集。然而,超网络可以迭代调用,在每一步只需分块填充目标模型中的一部分。这表明允许应用较小的可重复使用的超网络。有趣的是,利用分块超网络可以在压缩状态下解决任务,其中学习参数(超网络的那些)的数量实际上小于目标网络参数的数量。

为了避免在目标网络的各个分区之间引入权重共享,作者引入块嵌入的集合{C} 作为超网络的附加输入。因此,目标网络参数的全集Θ_trgt=[fh(e,c1),,,fh(e,CNc)]是通过在C上迭代而产生的,在这过程中保持e不变。这样,超网络可以每个块上产生截然不同的权重。另外,为了简化训练过程,作者对所有任务使用一组共享的块嵌入。

模型的第三部分:上下文无关推理:未知任务标识(context-free inference: unknown task identity)。从输入数据的角度确定要解决的任务。超网络需要任务嵌入输入来生成目标模型权重。在某些连续学习的应用中,由于任务标识是明确的,或者可以容易地从上下文线索中推断,因此可以立即选择合适的嵌入。在其他情况下,选择合适的嵌入则不是那么容易。

作者在论文中讨论了连续学习中利用任务条件超网络的两种不同策略。

策略一:依赖于任务的预测不确定性。神经网络模型在处理分布外的数据方面越来越可靠。对于分类目标分布,理想情况下为不可见数据产生平坦的高熵输出,反之,为分布内数据产生峰值的低熵响应。这提出了第一种简单的任务推理方法(HNET+ENT),即给定任务标识未知的输入模式,选择预测不确定性最小的任务嵌入,并用输出分布熵量化。

策略二:当生成模型可用时,可以通过将当前任务数据与过去合成的数据混合来规避灾难性遗忘。除了保护生成模型本身,合成数据还可以保护另一模型。这种策略实际上往往是连续学习中最优的解决方案。受这些成功经验的启发,作者探索用回放网络(replay network)来增强深度学习系统。

合成回放(Synthetic replay)是一种强大但并不完美的连续学习机制,因为生成模式容易漂移,错误往往会随着时间的推移而积累和放大。作者在一系列关键观察的基础上决定:就像目标网络一样,重放模型可以由超网络指定,并允许使用输出正则化公式。而不是使用模型自己的回放数据。因此,在这种结合的方法中,合成重放和任务条件元建模同时起作用,避免灾难性遗忘。

基准测试

作者使用MNIST、CIFAR10和CIFAR-100公共数据集对论文中的方法进行了评估。评估主要在两个方面:(1)研究任务条件超网络在三种连续学习环境下的记忆保持能力,(2)研究顺序学习任务之间的信息传递。

具体的在评估实验中,作者根据任务标识是否明确出了三种连续学习场景:CL1,任务标识明确;CL2,任务标识不明确,并不需明确推断;CL3,任务标识可以明确推断出来。另外作者在MNIST数据集上构建了一个全连通的网络,其中超参的设定参考了van de Ven & Tolias (2019)论文中的方法。在CIFAR实验中选择了ResNet-32作为目标神经网络。

van de Ven & Tolias (2019):

Gido M. van de Ven and Andreas S. Tolias. Three scenarios for continual learning. arXiv preprint arXiv:1904.07734, 2019.

为了进一步说明论文中的方法,作者考虑了四个连续学习分类问题中的基准测试:非线性回归,PermutedMNIST,Split-MNIST,Split CIFAR-10/100。

非线性回归的结果如下:

注:图a:有输出正则化的任务条件超网络可以很容易地对递增次数的多项式序列建模,同时能够达到连续学习的效果。图b:和多任务直接训练的目标网络找到的解决方案类似。图c:循序渐进地学习会导致遗忘。

在PermutedMNIST中,作者并对输入的图像数据的像素进行随机排列。发现在CL1中,任务条件超网络在长度为T=10的任务序列中表现最佳。在PermutedMNIST上任务条件超网络的表现非常好,对比来看突触智能(Synaptic Intelligence) ,online EWC,以及深度生成回放( deep generative replay)方法有差别,具体来说突触智能和DGR+distill会发生退化,online EWC不会达到非常高的精度,如下图a所示。综合考虑压缩比率与任务平均测试集准确性,超网络允许的压缩模型,即使目标网络的参数数量超过超网络模型的参数数量,精度依然保持恒定,如下图b所示。

Split-MNIST作为另一个比较流行的连续学习的基准测试,在Split-MNIST中将各个数字有序配对,并形成五个二进制分类任务,结果发现任务条件超网络整体性能表现最好。另外在split MNIST问题上任务重叠,能够跨任务传递信息,并发现该算法收敛到可以产生同时解决旧任务和新任务的目标模型参数的超网络配置。如下图所示

图a:即使在低维度空间下仍然有着高分类性能,同时没有发生遗忘。图b:即使最后一个任务占据着高性能区域,并在远离嵌入向量的情况下退化情况仍然可接受,其性能仍然较高。

在CIFAR实验中,作者选择了ResNet-32作为目标神经网络,在实验过程中,作者发现运用任务条件超网络基本完全消除了遗忘,另外还会发生前向信息反馈,这也就是说与从初始条件单独学习每个任务相比,来自以前任务的知识可以让网络表现更好。

综上,在论文中作者提出了一种新的连续学习的神经网络应用模型--任务条件超网络,该方法具有可灵活性和通用性,作为独立的连续学习方法可以和生成式回放结合使用。该方法能够实现较长的记忆寿命,并能将信息传输到未来的任务,能够满足连续学习的两个基本特性。

参考文献:

HYPERNETWORKS:

https://arxiv.org/pdf/1609.09106.pdf

CONTINUAL LEARNING WITH HYPERNETWORKS

https://arxiv.org/pdf/1906.00695.pdf

https://mp.weixin.qq.com/s/hZcVRraZUe9xA63CaV54Yg


本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-01-13,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技评论 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Reddit热议!DeepMind最新研究解决灾难性遗忘难题
这篇由DeepMind研究团队出品的论文名字叫“Functional Regularisation for Continual Learning”(持续学习的功能正规化)。研究人员引入了一个基于函数空间贝叶斯推理的持续学习框架,而不是深度神经网络的参数。该方法被称为用于持续学习的函数正则化,通过在底层任务特定功能上构造和记忆一个近似的后验信念,避免忘记先前的任务。
新智元
2019/07/05
6300
Reddit热议!DeepMind最新研究解决灾难性遗忘难题
提升速度与精度,FedReg: 减轻灾难性遗忘加速联邦收敛(ICLR 2022)
这是一篇最新ICLR2022论文,Acceleration of Federated Learning with Alleviated Forgetting in Local Training,作者通过从一个灾难性遗忘的角度分析联邦学习性能不佳的原因,并进行改进提升收敛速度与精度。
CV君
2022/04/18
5820
提升速度与精度,FedReg: 减轻灾难性遗忘加速联邦收敛(ICLR 2022)
Nature Machine Intelligence | 三种类型的增量学习
今天给大家带来一篇剑桥大学有关增量学习的文章。从非平稳的数据流中渐进地学习新信息,被称为“持续学习”,是自然智能的一个关键特征,但对深度神经网络来说是一个具有挑战性的问题。近年来,许多用于持续学习的深度学习方法被提出,但由于缺乏共同的框架,很难比较它们的性能。为了解决这个问题,我们描述了持续学习的三种基本类型或“场景”:任务增量式学习、领域增量式学习和类增量式学习。每一种情况都有自己的挑战。为了说明这一点,作者通过根据每个场景执行Split MNIST和Split CIFAR-100协议,对目前使用的持续学习策略进行了全面的实证比较。作者证明了这三种情况在难度和不同策略的有效性方面存在实质性差异。提出的分类旨在通过形成清晰定义基准问题的关键基础来构建持续学习领域。
智能生信
2022/12/29
10.4K1
Nature Machine Intelligence | 三种类型的增量学习
神经网络的多任务学习方法,避免灾难性遗忘
神经网络非常擅长学习一件事。无论是下棋还是折叠蛋白质,只要有足够的数据和时间,神经网络都能取得惊人的效果。不幸的是,网络目前无法擅长一项以上的任务。你可以训练一个网络擅长某件事,但是一旦你试图教给网络其他东西,它就会忘记它在第一个任务中学到的东西。这被称为灾难性遗忘(catastrophic forgetting)。由于智能的标志之一是学习和存储多项任务,因此如何在多项任务上训练神经网络(并解决灾难性遗忘)的问题极为重要。
deephub
2021/09/15
8800
AI模型应对灾难性遗忘的技术
尽管机器学习模型取得了巨大进步,但专家们仍在努力解决确保机器不会忘记之前学习的知识的问题,尤其是在学习新知识时。
云云众生s
2024/10/11
1010
伪排练:NLP灾难性遗忘的解决方案
有时,你需要对预先训练的模型进行微调,以添加新标签或纠正某些特定错误。这可能会出现“灾难性遗忘”的问题。而伪排练是一个很好的解决方案:使用原始模型标签实例,并通过微调更新进行混合。 当你优化连续两次的学习问题可能会出现灾难性遗忘问题,第一个问题的权重被用来作为第二个问题权重的初始化的一部分。很多工作已经进入设计对初始化不那么敏感的优化算法。理想情况下,我们的优化做到最好,无论权重如何初始化,都会为给定的问题找到最优解。但显然我们还没有达到我们的目标。这意味着如果你连续优化两个问题,灾难性遗忘很可能发生。 这
AiTechYun
2018/03/05
1.9K0
伪排练:NLP灾难性遗忘的解决方案
一文概述联邦持续学习最新研究进展
由于数据隐私限制,多个中心之间的数据共享受到限制,这就影响了联邦学习架构下多中心合作开发高性能深度学习模型的效果。持续学习(Continual Learning)作为点对点联合学习的一种方法,可以通过共享中间模型而不是训练数据来绕过数据隐私的限制,从而促进多中心协作开发深度学习算法。近期不断有研究人员探索联邦持续学习方法(Federated Continual Learning,FCL),即,研究持续学习在联邦学习架构下多中心协作的可行性。
机器之心
2023/08/07
1.3K0
一文概述联邦持续学习最新研究进展
深度 | 剖析DeepMind神经网络记忆研究:模拟动物大脑实现连续学习
选自github.io 作者:Rylan Schaeffer 机器之心编译 参与:吴攀、李泽南、李亚洲 前几天,Google DeepMind 公开了一篇新论文《克服神经网络中的灾难性遗忘(Overcoming catastrophic forgetting in neural networks)》,介绍了这家世界顶级的人工智能研究机构在「记忆(memory)」方面的研究进展,之后该公司还在其官方博客上发布了一篇介绍博客,参见机器之心的报道《为机器赋予记忆:DeepMind 重磅研究提出弹性权重巩固算法》。
机器之心
2018/05/07
1.6K1
深度 | 剖析DeepMind神经网络记忆研究:模拟动物大脑实现连续学习
每日论文速递 | NAACL'24:自生成翻译记忆缓解翻译持续学习遗忘问题
摘要:现代神经机器翻译系统在几种不同的语言中表现出强劲的性能,并在不断改进。然而,它们的持续学习能力仍然受到灾难性遗忘问题的严重限制。在这项工作中,我们利用encoder-decoder transformer的一个关键特性,即它们的生成能力,提出了一种持续学习神经机器翻译系统的新方法。我们展示了如何利用重放记忆,将模型本身作为并行句子的生成器,从而有效地学习由不同语言组成的经验流。我们通过实证证明,我们的方法可以抵消灾难性遗忘,而无需明确记忆训练数据。代码将在发表后公开。
zenRRan
2024/04/11
1640
每日论文速递 | NAACL'24:自生成翻译记忆缓解翻译持续学习遗忘问题
马毅团队新作!微调多模态大模型会「灾难性遗忘」,让性能大减
近日,来自UC伯克利、NYU等机构研究人员发现,微调后的多模态大模型,会产生灾难性遗忘。
新智元
2023/09/28
9700
马毅团队新作!微调多模态大模型会「灾难性遗忘」,让性能大减
创业公司Neurala新突破:在本地计算中解决“灾难性遗忘”
安妮 编译整理 在英伟达的GPU技术大会上,创业公司Neurala演示了新型深度学习神经系统解决方案,宣布解决了深度神经网络设计中的“灾难性遗忘”问题。他们正在为这个解决方案申请专利,并宣布计划在
量子位
2018/01/30
1.1K0
创业公司Neurala新突破:在本地计算中解决“灾难性遗忘”
你的神经网络会忘了学到的东西?
我们的大脑是个不断进化的物体,一直在持续不断修改自身的结构,以保留新的信息,并根据我们与环境的互动去掉旧的信息。正如我们所知,人工神经网络及其激活网最初是仿照大脑建立的。然而,大多数人工神经网络在结构上是静态的,依赖于批量学习,在训练时它们被输入很多批独立同分布(IID)数据,并且学习到的参数在部署时被固定,这与我们大脑的学习方式不一样: 我们不是通过一次性处理随机批量的数据来学习,而是通过处理我们从感官接收到的关于我们周围环境的连续的相关信息流。
McGL
2020/09/27
7910
学界 | 进化算法可以不再需要计算集群,开普敦大学的新方法用一块GPU也能刷新MNIST记录
AI 科技评论按:进化算法和生成式对抗性网络GANs类似,提出时大家都觉得是很好的想法,可以帮人类极大地拓展行为和想象空间,然而找到好的、可控的实现方法却没那么简单。GANs方面现在已经有了许多的成果,但是进化算法仍然停留在较为初期的状态,无法生成大规模、复杂的网络,需要的计算资源也是在计算集群的级别上。 不过,进化算法的研究也是一步步在“进化”的,最近这项来自南非开普敦大学的研究就带来了新的发现,只用单块GPU的资源就进化出了理想的网络结构,还刷新了三项测试的结果。雷锋网 AI 科技评论把背景和这篇论
AI科技评论
2018/03/14
7960
学界 | 进化算法可以不再需要计算集群,开普敦大学的新方法用一块GPU也能刷新MNIST记录
针对深度学习的“失忆症”,科学家提出基于相似性加权交错学习,登上PNAS
与人类不同,人工神经网络在学习新事物时会迅速遗忘先前学到的信息,必须通过新旧信息的交错来重新训练;但是,交错全部旧信息非常耗时,并且可能没有必要。只交错与新信息有实质相似性的旧信息可能就足够了。 近日,美国科学院院报(PNAS)刊登了一篇论文,“Learning in deep neural networks and brains with similarity-weighted interleaved learning”,由加拿大皇家学会会士、知名神经科学家 Bruce McNaughton 的团队发表。
AI科技评论
2022/07/06
3000
针对深度学习的“失忆症”,科学家提出基于相似性加权交错学习,登上PNAS
用AI取代SGD?无需训练ResNet-50,AI秒级预测全部2400万个参数,准确率60% | NeurIPS 2021
一次前向传播便可预测几乎任何神经网络的参数,我们离用单一元模型取代手工设计的优化器又近了一步。
AI科技评论
2021/11/05
3280
用AI取代SGD?无需训练ResNet-50,AI秒级预测全部2400万个参数,准确率60% | NeurIPS 2021
深度学习中的样本遗忘问题 (ICLR-2019)
本论文的写法很特别,跟大家常读的八股文不同,本文更像一个实验报告,标题也说了是一个Empirical Study,我觉得是一个很好的写Empirical Study的范本,值得收藏。
beyondGuo
2022/03/28
4930
深度学习中的样本遗忘问题 (ICLR-2019)
从 ICLR 2019 一览小样本学习最新进展!
AI 科技评论按:通常而言,深度学习是典型的数据驱动型技术,面对数据有限的情况,传统的深度学习技术的性能往往不尽如人意。在本届 ICLR 上,许多研究者们利用元学习、迁移学习等技术对小样本学习问题进行了探究,发表了多篇高质量论文,可谓百家争鸣!深度学习工程师 Isaac Godfried 在 Medium 上发表了一篇文章,基于今年 ICLR 上关于小型数据集深度学习研究的论文,探讨了目前小样本学习的最新进展。AI 科技评论编译如下。
AI科技评论
2019/06/15
8750
AI也有健忘症?英国41岁教授专访:解决灾难性遗忘
---- 新智元报道   编辑:Joey 好困 【新智元导读】罗切斯特大学计算机科学家在持续学习领域的开创性研究,有望解决算法一直以来存在的灾难性遗忘问题。 如何实现持续学习,让AI不断片? 近日,来自罗切斯特大学的41岁计算机科学家Christopher Kanan在专访中表示,自己正在构建可以让AI随着时间的推移而不断学习的算法——就像我们人类一样。 灾难性遗忘 众所周知,AI在经过训练之后可以很好地完成「考试范围内」的任务,但是这些算法却不能像人类那样不断用新信息更新知识库。 为了学习哪怕是
新智元
2022/08/26
2700
AI也有健忘症?英国41岁教授专访:解决灾难性遗忘
让模型实现“终生学习”,佐治亚理工学院提出Data-Free的增量学习
目前的计算机视觉模型在进行增量学习新的知识的时候,就会出现灾难性遗忘的问题。缓解这种遗忘的最有效的方法需要大量重播(replay)以前训练过的数据;但是,当内存限制或数据合法性问题存在时,这种方法就存在一定的局限性。
CV君
2021/09/03
8920
自“彩票假设”理论被授予2019 ICLR 最佳论文后,该领域又有了哪些新的研究进展?
在人们互相交流和信息传递的过程中,「隐喻」的作用极其重要。在1970年之前,当人们提起「桌面」这个单词,联想到的还都是放满了锅碗瓢勺的桌子。但是当天才计算机大师Alan Kay在 Xerox PARC 实验室设计了现代的 GUI 交互界面之后,桌面这个词可能更多的指代的就是配备各种图形化操作系统的电脑桌面了。
AI科技评论
2020/08/20
2.7K0
自“彩票假设”理论被授予2019 ICLR 最佳论文后,该领域又有了哪些新的研究进展?
推荐阅读
Reddit热议!DeepMind最新研究解决灾难性遗忘难题
6300
提升速度与精度,FedReg: 减轻灾难性遗忘加速联邦收敛(ICLR 2022)
5820
Nature Machine Intelligence | 三种类型的增量学习
10.4K1
神经网络的多任务学习方法,避免灾难性遗忘
8800
AI模型应对灾难性遗忘的技术
1010
伪排练:NLP灾难性遗忘的解决方案
1.9K0
一文概述联邦持续学习最新研究进展
1.3K0
深度 | 剖析DeepMind神经网络记忆研究:模拟动物大脑实现连续学习
1.6K1
每日论文速递 | NAACL'24:自生成翻译记忆缓解翻译持续学习遗忘问题
1640
马毅团队新作!微调多模态大模型会「灾难性遗忘」,让性能大减
9700
创业公司Neurala新突破:在本地计算中解决“灾难性遗忘”
1.1K0
你的神经网络会忘了学到的东西?
7910
学界 | 进化算法可以不再需要计算集群,开普敦大学的新方法用一块GPU也能刷新MNIST记录
7960
针对深度学习的“失忆症”,科学家提出基于相似性加权交错学习,登上PNAS
3000
用AI取代SGD?无需训练ResNet-50,AI秒级预测全部2400万个参数,准确率60% | NeurIPS 2021
3280
深度学习中的样本遗忘问题 (ICLR-2019)
4930
从 ICLR 2019 一览小样本学习最新进展!
8750
AI也有健忘症?英国41岁教授专访:解决灾难性遗忘
2700
让模型实现“终生学习”,佐治亚理工学院提出Data-Free的增量学习
8920
自“彩票假设”理论被授予2019 ICLR 最佳论文后,该领域又有了哪些新的研究进展?
2.7K0
相关推荐
Reddit热议!DeepMind最新研究解决灾难性遗忘难题
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文