首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

注意力及记忆模块在神经网络中的最新前沿

SFFAI 4 报名通知

论坛主题:

注意力及记忆模块在神经网络中的最新前沿

(Recent Frontiers of attention & memory in Neural Networks)

论坛讲者:

田正坤,中国科学院自动化研究所模式识别国家重点实验室智能交互课题组,导师为陶建华研究员, 研究方向语音识别、迁移学习等。

王克欣,中科院自动化研究所宗成庆老师组二年级硕士生。研究领域为自然语言处理,研究方向为记忆增强神经网络、无监督(句法)结构学习等。

时间:

2018年10月14日(周日)下午2:00 -- 4:00

地点:

中国科学院自动化研究所

(通过审核后通知具体地址)

论坛内容简介:

1.田正坤部分:Most ASR systems involve separately trained acoustic, pronunciation and language model components which are trained separately. A single end-to-end trained sequence-to-sequence model, which directly outputs words or graphemes, could greatly simplify the speech recognition pipeline. Attention-based sequence-to-sequence model has made significant progress in the filed of Neural Machine Translation. Speech Transcription and Machine Translation have many similarities. And Seq2Seq Model for speech recognition has become a research hotspot.

2.王克欣部分:内存是计算的前提,目前广泛被采用的不具有外置内存(external memory)的机器学习模型(如LSTM)的记忆能力是受可训练参数数目影响的,使得其面对需要较大存储的任务时想达到较好性能代价较高;而具有外置内存(一般称为memory augmented)的模型能够一定程度上解决这一问题。本次演示分享主要关注(外置)记忆增强神经网络系列模型,从两种分类方式(读写角度以及从类比自动机理论角度)介绍其发展过程以及这类模型的核心设计思路;另着重介绍神经图灵机模型(neural turing machine),分析工作原理,并进一步简单探讨表达能力与学习能力的关系等。

报名方式

扫描下方二维码报名

活动说明

1. 为确保小范围深入交流,本次活动仅接受 30 位用户入场(不收取任何费用);

2. 活动采取审核制报名,我们将根据用户研究方向与当期主题的契合度进行筛选,通过审核的用户将收到确认邮件;

3. 如您无法按时到场参与活动,请于活动开始前 24 小时在AIDL微信公众号后台留言告知,留言格式为放弃报名 + 报名电话;无故缺席者,将不再享有后续活动的报名资格。

SFFAI简介

人工智能前沿学生论坛

(Student Forum on Frontiers of Artificial Intelligence)

是公益性的学术交流社区

欢迎对AI感兴趣的各位大佬们加入

分享机器学习、神经科学、认知科学、计算机视觉、自然语言等领域的前沿工作

希望SFFAI能够促进大家在各个AI分领域都能跟进前沿

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181011B1LL2S00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券