我试图在AWS上部署一个图像分类算法,我的构建大小是390 MB,甚至通过S3桶上传也超过了250 MB的上限。这么大的大小的原因是: OpenCV (120 MB),模型检查点(112 MB)和另一个Caffemodel (125 MB)
以下是我的问题:
发布于 2018-10-26 12:53:15
您能让脚本从s3桶中复制依赖项吗?您有512 of的/tmp。您可能希望在函数之外执行此操作,这可能是用某种逻辑包装的,因此在每个容器生命周期中只发生一次,而不是每次调用。您必须在脚本中的文件副本之后推送导入。
例如:
if not {OpenCV installed}:
{Use boto to copy files from S3}
import /tmp/OpenCV
def handler(event, context):
{Your script}
在当前的AWS世界中,当您超过这个512 of的阈值时,您可能不得不使用类似于FarGate的东西来代替Lambda。
https://stackoverflow.com/questions/53005278
复制相似问题