前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >NVIDIA发布了TensorRT 4,极大加速神经机器翻译

NVIDIA发布了TensorRT 4,极大加速神经机器翻译

作者头像
AiTechYun
发布2018-07-27 14:41:38
6360
发布2018-07-27 14:41:38
举报
文章被收录于专栏:ATYUN订阅号ATYUN订阅号

编译:chux

出品:ATYUN订阅号

NVIDIA发布了TensorRT 4,其新功能可加速GPU上神经机器翻译(NMT)应用的推断。

神经机器翻译为大量消费应用提供基于AI的文本翻译,包括网站,道路标志,外语字幕等。

TensorRT是NVIDIA的可编程推理加速器,可帮助优化和生成运行时引擎,以便将深度学习推理应用程序部署到生产环境中。谷歌的神经机器翻译(GNMT)模型与仅使用CPU的平台相比,使用TensorRT在Tesla V100 GPU上的推理速度提高了60倍。

TensorRT 4版本支持新的RNN层,如Batch MatrixMultiply,Constant,Gather,RaggedSoftMax,Reduce,RNNv2和TopK。这些层允许应用程序开发人员使用TensorRT轻松加速NMT模型中计算密集程度最高的部分。

NMT详细示例图。编码器、发电机和波束调整作为三个TensorRT引擎。在橙色缓冲区中,由用户分配。在GPU和CPU上分别实现绿色和蓝色的层。

在性能方面,当在数据写入器基准测试组件上测试光束搜索时,系统在batch=1的推理期间执行的速度比仅用CPU快170倍,比batch=64的速度快100倍。

NVIDIA的可编程推理加速器TensorRT帮助优化和生成运行时引擎,将深度学习推理应用部署到生产环境中。

与只使用CPU的平台相比,GNMT模型在特斯拉V100 GPU上使用TensorRT的速度更快。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-07-19,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 ATYUN订阅号 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
机器翻译
机器翻译(Tencent Machine Translation,TMT)结合了神经机器翻译和统计机器翻译的优点,从大规模双语语料库自动学习翻译知识,实现从源语言文本到目标语言文本的自动翻译,目前可支持十余种语言的互译。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档