首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

SFFAI 分享 | 王克欣 : 详解记忆增强神经网络

1. 报告主题简介 1.介绍 1.1 背景1:为什么需要MANNs 1.2 背景2:模型应用场景 1.3 背景3:预备知识介绍--自动机理论与MANNs 1.4 背景4:预备知识介绍--工作记忆机制 1.5 背景5:小结 2. 推文内容 1. 分类体系 2. 模型介绍 2.1 一般框架 2.2 模型:栈增强的RNN 模型简介 实验一:形式文法语言模型任务 实验二:谓语动词数形式预测的句法依存任务 2.3 模型:神经图灵机 类比:状态机 v.s. RNNs 表达能力 v.s. 学习能力 神经图灵机模型的结构 实验一:序列转换拷贝任务 实验二:更多的神经科学中关于记忆的序列转换任务 2.4 模型:情景记忆 情景记忆简介:与其他MANNs的区别 实现细节 实验一:阅读理解式问答 任务二:逻辑推理 2.5 模型:一个长期记忆的例子 长期记忆简介 神经主题模型 实验结果 3. 总结

01

实现抽象视觉推理

视觉推理对于构建理解世界并执行超越感知的问题解决的智能代理是必不可少的。可微分正向推理已经被开发来将推理与基于梯度的机器学习范例相结合。然而,由于内存强度,大多数现有的方法没有带来一阶逻辑的最佳表达能力,排除了关键的解决能力抽象视觉推理,其中代理需要通过在不同场景中对抽象概念进行类比来进行推理。为了克服这个问题,我们提出了神经符号消息传递推理机 (NEUMANN ),它是一种基于图的可微分正向推理机,以高效存储的方式传递消息用函子处理结构化程序。此外,我们提出了一种计算高效的结构学习算法,用于对复杂的视觉场景进行解释性程序归纳。为了评估,除了常规的视觉推理任务,我们提出了一个新的任务,幕后视觉推理,其中代理需要学习抽象程序,然后通过想象未观察到的场景来回答查询。

02
领券