默认情况下,我在中创建了一个集群设置(4 vCPU,15 in )。在处理多个猪作业后,集群有2-3个不健康的节点.因此,我升级了工作者VM的vCPU(4到8个vCPU)、Ram(15 So到30 So)和磁盘。但是在Hadoop接口中,工作节点的硬件没有改变,它仍然显示了vCPU/Ram/磁盘的原始挂载。
如何在dataproc中动态升级工人的cpu/ram/磁盘?
谢谢。
发布于 2016-08-23 17:10:44
Dataproc不支持在运行群集时升级员工。为了升级,我们建议重新创建集群。还可以通过集群更新gcloud命令添加额外的工作人员。
可以通过停止每个员工实例、升级和重新启动来升级员工类型。然而,有许多hadoop/spark属性必须更改以适应不同的容器大小。
发布于 2021-12-14 09:02:22
我们必须停止集群,可以编辑配置来升级CPU/RAM
https://stackoverflow.com/questions/39073032
复制相似问题