首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >GCP顶点AI培训:自动包装的自定义培训工作产生巨大的码头形象

GCP顶点AI培训:自动包装的自定义培训工作产生巨大的码头形象
EN

Stack Overflow用户
提问于 2022-02-27 10:49:52
回答 1查看 548关注 0票数 1

我试图运行一个自定义培训工作在谷歌云平台的顶点AI培训服务。

这项工作基于来自Google的一篇教程,它细调了一个预先训练过的BERT模型。 (来自HuggingFace)。

当我使用gcloud CLI工具自动将培训代码打包到Docker映像中,并将其部署到顶点AI培训服务时,如下所示:

代码语言:javascript
运行
复制
$BASE_GPU_IMAGE="us-docker.pkg.dev/vertex-ai/training/pytorch-gpu.1-7:latest"
$BUCKET_NAME = "my-bucket"

gcloud ai custom-jobs create `
--region=us-central1 `
--display-name=fine_tune_bert `
--args="--job_dir=$BUCKET_NAME,--num-epochs=2,--model-name=finetuned-bert-classifier" `
--worker-pool-spec="machine-type=n1-standard-4,replica-count=1,accelerator-type=NVIDIA_TESLA_V100,executor-image-uri=$BASE_GPU_IMAGE,local-package-path=.,python-module=trainer.task"

..。最后,我得到了一个大约为18 up (!)的码头形象。需要很长时间才能上传到GCP注册中心。

当然是基本图像约为6.5GB,但额外的>10 do从哪里来,我有办法避免这个“图像膨胀”吗?

请注意,我的工作在运行时使用datasets package加载培训数据,而且AFAIK没有将其包含在自动打包的坞映像中。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2022-03-01 08:34:54

UI中显示的图像大小是图像的虚拟大小。它是压缩的总图像大小,将通过网络下载。一旦图像被拉出来,它就会被提取出来,产生的大小也会变大。在本例中,PyTorch图像的虚拟大小为6.8GB,而实际大小为17.9GB。

此外,当执行docker push命令时,进度条显示未压缩大小。被推送的实际数据量将是在发送前压缩,因此上传的大小将不会由进度条反映。

若要减少码头映像的大小,可以使用自定义容器。在这里,只能配置必要的组件,这将导致较小的停靠映像。有关自定义容器这里的更多信息。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/71284125

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档