任何有使用vast.ai进行云计算的经验的人都知道,当租用多个GPU时,您需要做一些设置来利用额外的GPU吗?
因为当租用6或8个GPU而不是仅仅一个GPU时,我不会注意到速度上的任何差异。我刚开始使用vast.ai进行云计算。
我使用的是默认的码头:用于深度学习框架TensorFlow ()的正式对接图像。
成功加载了tensorflow/tensorflow:夜-GPU-py3
然后再安装keras:
pip install keras
我还使用此方法检查了可用的GPU,所有GPU都被正确检测到:
from keras import backend as K
K.tensorflow_b
我刚刚在Google vertex AI上部署了一个ML模型,它可以使用vertex AI网络界面进行预测。但是,例如,是否可以从浏览器向该部署的模型发送请求。就像这样 http://myapp.cloud.google.com/input="features of an example" 并将预测结果作为输出。谢谢
我希望在一个地方管理我所有的Google Cloud机器学习模型(例如AI平台/Kubeflow/AutoML)。但是,我不确定在哪里可以找到AutoML,特别是我已经部署的AutoML表和模型。 随着复杂性的增加,我希望能够将AutoML模型移植到AI平台模型以迭代版本。此外,如果我想进行进一步的定制,我还可以将该模型引入Kubeflow,以进一步定制、版本化、管理和部署。 AI Platform、AutoML和Kubeflow的所有不同模型是如何管理和版本化的?