我使用谷歌云平台Ubuntu 16.04,Cuda 9,Tensorflow与GPU 1.8
我用Adam优化器做了一个梯度下降,对一个5个变量的函数进行了100次迭代,这大约是sigmoid函数的100个项的总和。它需要6-7使用GPU K80和它需要同样的时间使用CPU!
我知道它确实在使用GPU (或CPU),因为我打印用于操作的设备,所以我的脚本产生类似于:
add_5/x: (Const): /job:localhost/replica:0/task:0/device:GPU:0
在使用GPU和
使用CPU时的add_5/x: (Const): /job:localhost/replica:0/task:0/device:CPU:0
为什么要用同样的时间?
发布于 2018-05-25 20:09:48
GPU并不总是比CPU快。如果没有看到分析器输出,就很难说出这里发生了什么。你的模型是否以一种分批好的方式进行数值密集(例如,它有很多垫子或卷曲)?如果是这样的话,GPU应该会加速你的速度,但它们不是魔法。
https://stackoverflow.com/questions/50512475
复制相似问题