首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >如何在AWS Lambda中部署庞大的python依赖项和ML模型

如何在AWS Lambda中部署庞大的python依赖项和ML模型
EN

Stack Overflow用户
提问于 2018-10-26 09:09:50
回答 1查看 124关注 0票数 0

我试图在AWS上部署一个图像分类算法,我的构建大小是390 MB,甚至通过S3桶上传也超过了250 MB的上限。这么大的大小的原因是: OpenCV (120 MB),模型检查点(112 MB)和另一个Caffemodel (125 MB)

以下是我的问题:

  1. 当我们必须部署像OpenCV等依赖项的脚本时,如何处理这样的场景。有什么方法可以处理更糟糕的情况,比如1GB的zip大小?
EN

回答 1

Stack Overflow用户

发布于 2018-10-26 12:53:15

您能让脚本从s3桶中复制依赖项吗?您有512 of的/tmp。您可能希望在函数之外执行此操作,这可能是用某种逻辑包装的,因此在每个容器生命周期中只发生一次,而不是每次调用。您必须在脚本中的文件副本之后推送导入。

例如:

代码语言:javascript
运行
复制
if not {OpenCV installed}:
    {Use boto to copy files from S3}

import /tmp/OpenCV

def handler(event, context):
    {Your script}

在当前的AWS世界中,当您超过这个512 of的阈值时,您可能不得不使用类似于FarGate的东西来代替Lambda。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/53005278

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档