前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >重大进展!Paddle Fluid 加速float16卷积神经网络预测!

重大进展!Paddle Fluid 加速float16卷积神经网络预测!

作者头像
用户1386409
发布2018-07-26 10:07:44
6240
发布2018-07-26 10:07:44
举报
文章被收录于专栏:PaddlePaddle

所有PaddlePaddle的应用者们:

我们很高兴的宣布,

PaddlePaddle Fluid可以支持在卷积神经网络上进行float16模式的低精度预测了!

同时在NVIDIA最新的支持Tensor core的GPU提供的float16加速运算支持下,float16模式的预测在不损失准确率的情况下,实现了很大的加速效果(跟float32比较)!

为什么可以非常开心的庆祝起来?

这就需要从float讲起。通常的深度学习预测(inference)的参数,输入输出,和运算都是用的4个字节的float(也叫float32)浮点数表示。Float指的是浮点数,由IEEE指定规则,这种结构是一种科学计数法,用符号、指数和尾数来表示,底数定位2。float包括1个符号位、8个指数位和23个尾数位。

如果改成用2个字节的float16浮点数来表示,可以节约内存占用,耗电量,和运算时间。PaddlePaddleFluid 完成了在卷积神经网络(CNN)上进行float16inference的支持。跟float32模式的预测比较,在准确率一致的前提下,float16模式的预测在GPU上更快,更省电,更节省内存占用。 这就好比在吃食物时,同样热量的棉花糖和软糖,显然后者的食用速度是快于前者的,这样也可以尽快消化。

加速效果到底是怎样的呢?

PaddlePaddle在支持float16加速运算(NVIDIA的Tensor Core技术) 的NVIDIA最新GPU(V100)上测试了Fluid float16 预测(inference)的效果,可以总结为两点:

(1)float16inference的准确率: 和float32inference的准确率非常一致。

(2)float16inference的加速效果(跟float32模式下平均一个batch的预测时间做比较):在Vgg16上随着batch size的不同有2~4倍的加速效果,在Resnet50上有1.15~2倍的加速效果。

这也就是说,今后再使用PaddlePaddle Fluid时,参数处理速度被大大提升,能够留出更多时间可以用于后续的模型搭建和训练环节,这就像高铁提速能够让大家更快到达目的地,此次改变能让开发者们快捷操作,把更多的Idea更好更快速的实现!

当然,这一突破的背后,除了感谢夜以继日付出努力的开发工程师们,更是要感谢PaddlePaddle使用者们。PaddlePaddle Fluid仍在不断成长,希望今后能够带给大家更多惊喜,也欢迎各位开发者们及时提出问题与建议!感谢每位使用PaddlePaddle的开发者们的信任!

你们的PaddlePaddle

2018年5月17日

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-05-17,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 PaddlePaddle 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档