我一直试图加载一个托管在S3上的大型语言模型(> 5GB),以便在Lambda函数中使用,但到目前为止没有成功。该函数在几分钟后就会连续超时,即使是在10240 MB内存上设置时也是如此。
我认为这是因为Lambda函数的限制,以及来自S3的如此大的文件流。
对于我的实现,我的函数需要能够相当快地加载语言模型(~5-10秒)。
作为AWS的新手,是否有更好的方法来做到这一点?
发布于 2022-01-29 16:15:09
将模型存储在EFs驱动器中,然后将efs附加到lambda,您可以更快地进行计算。
https://stackoverflow.com/questions/70903679
复制相似问题