首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

ACL2016最佳论文:CNN/日常邮件阅读理解任务的彻底检查

摘要 NLP尚未解决的核心目标是,确保电脑理解文件回答理解问题。而通过机器学习系统,解决该问题的一大阻碍是:人类-注释数据的可用性有限。Hermann等人通过生成一个超过百万的实例(将CNN和日常邮件消息与他们自己总结的重点进行配对)来寻求解决方案,结果显示神经网络可以通过训练,提高在该任务方面的性能。本文中,我们对这项新的阅读理解任务进行了彻底的检测。我们的主要目标是,了解在该任务中,需要什么深度的语言理解。一方面,我们仔细的手动分析问题小的子集,另一方面进行简单的展示,在两个数据集中,细心的设计系统,就

04

纳米神经网络 NanoNet:数据有限,照样玩转深度学习

【新智元导读】解决深度学习问题时,使用迁移学习能够很好地减少所需的训练数据量。但是,使用这种方法需要更多的专业知识,比如判断如何调试问题、将哪一层的输出作为输入。本文首先通过一个简单示例(对影评的情感倾向做预测),手把手教你使用迁移学习。然后,文章介绍了一个有用的机器学习 API(也即作者本人公司的产品)——NanoNets,它包含一组训练含有数百万个参数的预训练模型,上传你自己的数据(或搜索网络数据),它会选择适用于你任务的最佳模型,简化你使用迁移学习训练模型的过程。 近来深度学习大受欢迎,在诸如语言翻译

013

美国MIT研究人员揭示神经网络运行机制

美国麻省理工学院(MIT)官网报道该校在通用神经网络方面的研究进展可用于揭示神经网络的运行机制。理解神经网络的运行机制可以帮助研究人员增强其性能,并将从中获得的经验转用到其他应用。 神经网络的机器学习系统通过分析大量的训练数据来学习如何执行任务。在训练中,神经网络不断调整数千个内部参数,直到能够可靠地执行一些任务,例如识别数字图像中的对象,或将文本从一种语言翻译成另一种语言。但这些参数的最终值对揭示神经网络的运行机制用处不大。最近,计算机科学家开发了一些巧妙的技术,可以对特定神经网络的计算进行划分。 在新近

05

Nature neuroscience:利用encoder-decoder模型实现皮层活动到文本的机器翻译

距离首次从人脑中解码语言至今已有十年之久,但解码语言的准确性和速度仍然远远低于自然语言。本研究展示了一种通过解码皮层脑电获得高准确率、高自然程度语言的方法。根据机器翻译的最新进展,我们训练了一个递归神经网络,将每个句子长度下诱发的神经活动序列编码为一个抽象的表达,然后逐字逐句地将这个抽象表达解码成一个英语句子。对每个参与者来说,数据包括一系列句子(由30-50个句子多次重复而来)以及约250个置于大脑皮层的电极记录到的同步信号。对这些句子的解码正确率最高可以达到97%。最后,本研究利用迁移学习的方法改进对有限数据的解码,即利用多名参与者的数据训练特定的网络层。本研究发表在Nature neuroscience杂志。

01

利用神经网络进行序列到序列转换的学习

深度神经网络是在困难的学习任务中取得卓越性能的强大模型。尽管拥有大量的标记训练集,DNN就能很好地工作,但是它们并不能用于将序列映射到序列。在本文中,我们提出了一种通用的端到端序列学习方法,它对序列结构作出最小的假设。我们的方法使用多层长短期记忆网络(LSTM)将输入序列映射到一个固定维度的向量,然后使用另一个深层LSTM从向量中解码目标序列。我们的主要结果是,在WMT 14数据集的英法翻译任务中,LSTM的翻译在整个测试集中获得了34.8分的BLEU分数,而LSTM的BLEU分数在词汇外的单词上被扣分。此外,LSTM人在长句上没有困难。相比之下,基于短语的SMT在同一数据集上的BLEU得分为33.3。当我们使用LSTM对上述系统产生的1000个假设进行重新排序时,它的BLEU分数增加到36.5,这接近于之前在这项任务中的最佳结果。LSTM还学会了对词序敏感、并且对主动语态和被动语态相对不变的有意义的短语和句子表达。最后,我们发现颠倒所有源句(而不是目标句)中单词的顺序显著提高了LSTM的表现,因为这样做在源句和目标句之间引入了许多短期依赖性,使得优化问题变得更容易。

02

【Science】无监督式机器翻译,不需要人类干预和平行文本

编译:弗格森 【新智元导读】 两篇新的论文表明,神经网络可以在不需要平行文本的情况下学习翻译,这是一个令人惊讶的进步,它将可以让人们可以读懂更多语言的文档。 因为神经网络,即一种以人脑为启发的计算机算法,自动的语言翻译取得了长足的进步。但是训练这样的网络需要大量的数据:通过数以百万计逐句对应的翻译来展示人类是如何做到这一点的。现在,两篇新的论文表明,神经网络可以在不需要平行文本的情况下学习翻译,这是一个令人惊讶的进步,它将可以让人们可以读懂更多语言的文档。 “想象一下,你给一个人很多中文书籍和大量的阿拉伯语

09

Sequence to Sequence Learning with Neural Networks论文阅读

作者(三位Google大佬)一开始提出DNN的缺点,DNN不能用于将序列映射到序列。此论文以机器翻译为例,核心模型是长短期记忆神经网络(LSTM),首先通过一个多层的LSTM将输入的语言序列(下文简称源序列)转化为特定维度的向量,然后另一个深层LSTM将此向量解码成相应的另一语言序列(下文简称目标序列)。我个人理解是,假设要将中文翻译成法语,那么首先将中文作为输入,编码成英语,然后再将英语解码成法语。这种模型与基于短语的统计机器翻译(Static Machine Translation, SMT)相比,在BLUE(Bilingual Evaluation Understudy)算法的评估下有着更好的性能表现。同时,作者发现,逆转输入序列能显著提升LSTM的性能表现,因为这样做能在源序列和目标序列之间引入许多短期依赖,使得优化更加容易

02
领券