我使用https://github.com/tensorflow/models/blob/master/research/object_detection进行目标检测,并发现在我的计算机上运行速度更快的using算法进行推理完全太慢了(~15s,无法处理一幅图像)。
我在使用GPU构建真实的应用程序方面没有多少经验,也不确定我是应该使用云实例还是购买低端的GPU(在200-500美元的范围内)。我预计我的应用程序会有很小的流量,所以即使是较小的实例对于我所要完成的任务也是非常昂贵的。
问题:,对于我来说,判断GPU是否足够快,而不首先购买它,最好的方法是什么?所有的云GPU (Amazon,Google)都使用超出我预算的硬件,所以在这些实例上运行我的代码不会给我一个很好的比较。
发布于 2019-12-31 19:53:49
随着云计算和服务的迅速崛起,除了限制将数据发送到Cloud之外,我看不到购买自己的GPU和建立自己的服务器的好处。这不仅费时,而且可能规模不大。结帐服务,如AWS Sagemaker (它们提供免费试用),您当然可以上传更快的RCNN代码,然后您可以通过端点访问该服务。像sagemaker这样的服务相对便宜(特斯拉的V100 gpu非常快,每小时4美元),如果你想要运行一些实验或者负载相对较少的话。
确定哪个GPU最适合您的最佳方法是使用您选择的GPU启动一个EC2实例,上传更快的RCNN存储库以及一些计算图像处理时间的测试环境。EC2实例有多种GPU,您可以使用这些GPU测试代码。从那里,您应该能够看到哪个GPU适合您的用例。
但如果你正在寻找300-500美元的gpu,那么你可能不得不切换到一个较轻的模型,如SSD或YOLO,因为更快的RCNN是一个相对较大的模型。在我以前的项目中,我不得不使用更快的RCNN,我发现即使使用特斯拉K80 (花费5000美元)对我的用例来说仍然不够快。因此,我最终升级到一个特斯拉V100 gpu(花费10,000美元),这对我来说终于足够了。
当然,所有这些都是在EC2中完成的。
https://stackoverflow.com/questions/59547549
复制相似问题