我已经开发了Django API,它接受来自livefeed摄像机的图像,使用base64格式作为请求。然后,在API中,将该图像转换为numpy数组,传递给机器学习模型,即使用tensorflow对象API进行对象检测。响应是检测对象的简单文本。
我需要基于GPU的云实例,在那里我可以部署这个应用程序进行快速处理,以实现实时结果。我找了很多东西,但没有找到这样的资源。我相信(实例)可以连接到live,但我不知道具体如何连接。
谢谢
发布于 2019-12-16 15:23:27
我假设您在本地或在承载Django应用程序的地方使用GPU。
第一件事是确保您正在使用tensorflow-gpu
,并且完成了Cuda
的所有必要设置。
您可以在Google平台(GCP)上轻松启动GPU实例。有多种方法可以做到这一点。
快速选择
notebooks
并使用所需的GPU和RAM启动一个新实例。如果您需要一些特定的操作系统,并且在选择机器方面需要更多的灵活性,则可以单独设置实例,而不是笔记本实例。使用details. Django时看到。要测试它,只需在主机0
或0.0.0.0
上运行它和首选端口.
中找到。
几点建议
虽然第一个选项是快速而肮脏的,但不建议在production.
tensorflow-serving
和Kubeflow。如果您认为自己正在正确地处理推理,那么请确保负载平衡服务器。使用NGINX或任何其他好的服务器以及gunicorn/uwsgi.
。
发布于 2019-12-17 08:29:58
Google实际上提供了云GPU。如果您希望使用需要实时功能的应用程序执行更高级别的计算,我建议您查看下面的链接以获得更多信息。https://cloud.google.com/gpu/
计算引擎还提供可以添加到虚拟机实例中的GPU。使用GPU加速实例上的特定工作负载,如机器学习和数据处理。https://cloud.google.com/compute/docs/gpus/
但是,如果应用程序需要大量资源,则需要增加配额,以确保项目中有足够的GPU可用。确保选择一个GPU可用的区域。如果这需要更多的计算能力,则需要提交增加配额的请求。https://cloud.google.com/compute/docs/gpus/add-gpus#create-new-gpu-instance
由于您将使用Tensorflow API作为您在ML引擎上的应用程序,所以我建议您查看下面的链接。它提供了使用TensorFlow和其他预先安装的工具创建深度学习VM实例的说明。https://cloud.google.com/ai-platform/deep-learning-vm/docs/tensorflow_start_instance
https://stackoverflow.com/questions/59348135
复制相似问题