我正在尝试在GCP实例上部署经过训练的模型。它的大小约为94 in。代码在我的本地机器上运行得很好。我能够启动烧瓶服务器,通过cURL调用发送图像并得到结果。但是在GCP上,每当我试图加载我的模型时,我都会得到这个错误的allocation of 52953088 exceeds 10% of system memory,这个过程就会被终止。
同样的型号安全装载,并在我的本地机器上运行。我是应该增加VM实例的内存,还是有其他方法?
基本上,我想在GCP中备份VM机器,并了解快照。因此,我试图使用snapshot特性的GCP,我创建了一个机器的快照称为角(这台机器包含角度和节点的数据),这里是快照的图像:
现在我想使用这个快照来还原数据,我不想创建一个新的实例,我得到一种方法,首先您必须删除要恢复快照数据的实例的引导磁盘,然后使用该快照创建一个新的磁盘,然后使用该磁盘。我尝试了这个技巧,但是我得到了这个错误:
错误:
UEFI setting must be the same for the instance and the boot disk.
使用快照创建的磁盘映像:
VM实例的映像,我希望在其中使
我正在尝试从gcloud项目中获取pod列表。
我在gcp中使用不同的笔记本电脑创建的gcloud项目。现在我使用不同的机器,但登录到相同的gcp帐户,使用相同的项目。
当我运行命令kubectl get pods时,我得到下面的错误。
Unable to connect to the server: dial tcp a.b.c.d:443: getsockopt: operation timed out
我试图添加一个参数--verbose,但似乎无效。
如何进一步解决此错误。
我想对相对较大的图像数据集(>2000 rgb图像)运行一些机器学习算法,如PCA和KNN,以便对这些图像进行分类。
我的源码如下:
import cv2
import numpy as np
import os
from glob import glob
from sklearn.decomposition import PCA
from sklearn import neighbors
from sklearn import preprocessing
data = []
# Read images from file
for filename in glob('Ima