前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >[Nature Communications | 论文简读] 用于人工神经网络持续学习的大脑启发回放

[Nature Communications | 论文简读] 用于人工神经网络持续学习的大脑启发回放

作者头像
智能生信
发布2022-12-29 17:41:26
3500
发布2022-12-29 17:41:26
举报
文章被收录于专栏:智能生信智能生信

简读分享 | 乔剑博 编辑 | 李仲深

论文题目

Brain-inspired replay for continual learning with artificial neural networks

论文摘要

人工神经网络遭受灾难性遗忘。与人类不同,当这些网络接受新事物的训练时,它们会迅速忘记之前学到的东西。在大脑中,一种被认为对保护记忆很重要的机制是代表这些记忆的神经元活动模式的重新激活。在人工神经网络中,这种记忆重放可以实现为“生成重放”,即使在类增量学习场景中,它也可以成功地——而且出人意料地有效地——防止对toy示例的灾难性遗忘。然而,将生成重放扩展到具有许多任务或复杂输入的复杂问题是一项挑战。作者提出了一种新的、受大脑启发的回放变体,其中回放由网络自身生成的内部或隐藏表示,上下文调制的反馈连接。作者的方法在不存储数据的情况下在具有挑战性的持续学习基准(例如,CIFAR-100 上的类增量学习)上实现了最先进的性能,并且它提供了一种在大脑中重播的新模型。

论文链接

https://www.nature.com/articles/s41467-020-17866-2

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2022-12-26,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 智能生信 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档