首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

【重磅】Nature子刊 | 增强学习强化,混合脑生化鼠“走迷宫”能力大幅提升

【新智元导读】浙江大学吴朝晖课题组的研究人员日前在 Scientific Reports 发表论文,描述了一种结合了小鼠和增强学习算法计算机的混合脑机系统,结果证明,被“增强”后的小鼠在学习走迷宫任务中表现出了强大的学习能力,最快 2 次就走出了中途需要进行 6 次决策的迷宫,在视觉和触觉感知受阻的情况下也是如此。研究人员表示,他们的工作成果对智能系统设计有着深远的影响。 神经科学和计算机科学的发展加强了大脑和机器之间的融合,现在可以用机械的方式对生物的感觉、记忆和运动机能进行增强或修复,科学家也做出了动物

08

ICLR 2019 | 有效稳定对抗模型训练过程,伯克利提出变分判别器瓶颈

对抗性学习方法为具有复杂的内部关联结构的高维数据分布的建模提供了一种很有发展前景的方法。这些方法通常使用判别器来监督生成器的训练,从而产生与原始数据极为相似、难以区分的样本。生成对抗网络(GAN)就是对抗性学习方法的一个实例,它可以用于高保真的图像生成任务(Goodfellow et al., 2014; Karrasrt et al.,2017)和其他高维数据的生成(Vondrick et al.,2016;Xie et al.,2018;Donahue et al.,2018)。在逆向强化学习(inverse reinforcement learning)框架中也可以使用对抗性方法学习奖励函数,或者直接生成模仿学习的专家演示样例(Ho & Ermon, 2016)。然而,对抗性学习方法的优化问题面临着很大的挑战,如何平衡生成器和判别器的性能就是其中之一。一个具有很高准确率的判别器可能会产生信息量较少的梯度,但是一个弱的判别器也可能会不利于提高生成器的学习能力。这些挑战引起了人们对对抗性学习算法的各种稳定方法的广泛兴趣(Arjovsky et al., 2017; Kodali et al., 2017; Berthelot et al., 2017)。

02
领券