首页
学习
活动
专区
工具
TVP
发布

深度学习自然语言处理

专栏作者
1010
文章
1176290
阅读量
161
订阅数
ICML 2022 | 清华、字节大幅刷新并行文本生成 SoTA 性能,超越 Transformer
每天给你送来NLP技术干货! ---- 转自 | 新智元 编辑 | 好困 清华&字节联合提出的DA-Transformer摆脱了传统并行模型依赖知识蒸馏的问题,在翻译任务中大幅超越了之前所有并行生成模型,最高提升 4.57 BLEU。同时也首次达到、甚至超越了自回归 Transformer 的性能,在最高提升 0.6 BLEU 的同时,能够降低7倍的解码延迟。|还在纠结会不会错过元宇宙和web3浪潮?清华大学科学史系副教授胡翌霖,这次给你讲个透! 并行文本生成模型(非自回归模型)是一种新的文本生成范
zenRRan
2022-07-27
5810
近200篇文章汇总而成的机器翻译非自回归生成最新综述,揭示其挑战和未来研究方向
每天给你送来NLP技术干货! ---- 作者:杜林鸽 学校:苏州大学人工智能实验班 方向:自然语言处理 论文标题:A Survey on Non-Autoregressive Generation for Neural Machine Translation and Beyond 论文链接:https://arxiv.org/abs/2204.09269 概要 以Transformer为基础的自回归生成(auto-regressive generation,AR)模型,已经被广泛应用到各类机器学习和自然语
zenRRan
2022-06-27
6370
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档