腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(445)
视频
沙龙
1
回答
Sagemaker
ML
-直
接在
lambda
函数
中
加载
Tensorflow
模型
端点
tensorflow
、
machine-learning
、
aws-lambda
、
amazon-sagemaker
我已经设法创建了一个从S3
加载
model.pb并对输入图像应用对象检测的
lambda
函数
(已安装
TensorFlow
1.12) 可以在
lambda
函数
中
加载
Sagemaker
模型
/
端点
配置吗?我的意思是在
lambda
中
安装所需的所有包,而不部署
端点
/类似EC2的实例。 我猜推理性能会下降,但解决方案似乎更具成本效益和可伸缩性。
浏览 10
提问于2019-10-16
得票数 0
1
回答
在没有估计器的情况下,我如何在本地使用内置的
Sagemaker
算法?
python
、
amazon-web-services
、
amazon-sagemaker
我有兴趣使用AWS
Sagemaker
built-in algorithms (或预先训练的
模型
)而不调用Estimator类,就像我在本地使用
tensorflow
或scikit-learn 一样。
浏览 2
提问于2022-11-11
得票数 1
回答已采纳
1
回答
自动售货机java.lang.IllegalArgumentException
java
、
python-3.x
、
amazon-web-services
、
machine-learning
、
amazon-sagemaker
我有一个
SageMaker
端点
。通过
Lambda
函数
调用
SageMaker
端点
。它应该返回一个vectorjava.lang.IllegalArgumentException: reasonPhrase contains one of the
浏览 8
提问于2022-01-18
得票数 0
1
回答
AWS
SageMaker
上的
ML
管道:如何创建长时间运行的查询/预处理任务
amazon-web-services
、
machine-learning
、
aws-lambda
、
pipeline
、
amazon-sagemaker
我目前正在使用AWS
Lambda
和Step
函数
来运行我的
ML
管道的查询和预处理作业,但由于
Lambda
的15m运行时限制而受到限制。我的当前进程 I让我的数据科学家为
模型
的查询和预处理步骤编写python脚本(在git
中
),并将它们(通过Terraform)部署为
lambda
函数
,然后使用Step
函数
将
ML
管道步骤排序为DAG (查询->预处理-> deploy )查询
lambda
从我
浏览 2
提问于2020-11-03
得票数 1
1
回答
服务于亚马逊
SageMaker
的
Tensorflow
python
、
amazon-web-services
、
tensorflow
、
tensorflow-serving
、
amazon-sagemaker
我面临着在AWS
SageMaker
上服务
tensorflow
模型
的问题。我在
SageMaker
环境之外训练了
模型
,现在我有了一个savedmodel.pb文件,我需要将它部署到
SageMaker
端点
上。因此,我简单地压缩了
模型
文件并将其上传到一个S3桶
中
。现在,在尝试创建
端点
时,我在Cloudwatch日志
中
得到以下错误:
tensorflow
_serving/sou
浏览 0
提问于2019-02-11
得票数 2
2
回答
在单个
端点
中的
Sagemaker
上部署多个经过预先训练的
模型
(tar.gz文件)
tensorflow
、
machine-learning-model
、
aws
、
sagemaker
、
pretraining
我们采取了以下步骤:以.h5格式保存。使用以下代码成功地在
端点
中部署了单个
模型
:
sagemaker
_model = TensorFlowModel} 现在的问题是,我们不能使用5个不同的部署语句,不能为5个
模型
创建5个不同的
端点
。(二)手动创建
端点</em
浏览 0
提问于2020-08-28
得票数 1
回答已采纳
3
回答
如何对AWS
Sagemaker
托管的自定义
Tensorflow
模型
使用多个输入
python
、
amazon-web-services
、
tensorflow
、
amazon-sagemaker
我有一个经过训练的
Tensorflow
模型
,它使用两个输入来进行预测。我已成功地在AWS
Sagemaker
上设置并部署了该
模型
。from
sagemaker
.
tensorflow
.model import TensorFlowModel
sagemaker
_model = TensorFlowModel(model_data='s3://' +
sagemaker
_session.default_bucket(
浏览 0
提问于2019-06-07
得票数 1
1
回答
将
tensorflow
模型
部署在
sagemaker
异步
端点
上,并包含一个inference.py脚本
amazon-web-services
、
amazon-sagemaker
我正在尝试将
tensorflow
模型
部署到
sagemaker
上的异步
端点
。我以前使用以下代码将相同的
模型
部署到实时
端点
:使用source_dir参数;我能够在我的
模型
中
浏览 12
提问于2022-09-03
得票数 0
回答已采纳
1
回答
将预先培训的Keras
加载
到
Sagemaker
局部分类工作,但
sagemaker
分类更改
python
、
amazon-web-services
、
tensorflow
、
keras
、
amazon-sagemaker
我有一个预先训练的角膜
模型
(model.h5),这是一个用于图像分类的CNN。我的目标是将
模型
部署在
sagemaker
上,并使用
lambda
函数
与
sagemaker
端点
进行接口并进行预测。下面是将
模型
部署为
端点
的代码:from
tensorflow
import k
浏览 1
提问于2021-05-12
得票数 0
回答已采纳
1
回答
利用
SageMaker
从
TensorFlow
多
模型
端点
接收解析错误
python
、
tensorflow
、
amazon-sagemaker
我们目前正在将
模型
从单个
模型
端点
移动到AWS
SageMaker
中
的多
模型
端点
。使用预构建的
TensorFlow
容器部署多
模型
终结点后,在调用predict()方法时会收到以下错误:我像这样调用<em
浏览 7
提问于2022-01-04
得票数 2
3
回答
从S3桶导入AWS
函数
代码
中
的库
python
、
amazon-web-services
、
amazon-s3
、
deep-learning
、
aws-lambda
我必须在AWS
Lambda
上部署一个深度学习
模型
,它可以进行对象检测。它是在S3桶
中
添加图像时触发的。我面临的问题是
Lambda
函数
代码使用了很多库,比如
Tensorflow
、PIL、Numpy、Matplotlib等等,如果我尝试将它们全部添加到
函数
代码或层
中
,它就超过了250 MB的大小限制。我是否可以将库zip文件部署到S3桶上,并在
函数
代码(用Python3.6编写)中使用它们,而不是直接将它们作为代码的一部分?我也可以尝试
浏览 0
提问于2020-01-14
得票数 2
回答已采纳
1
回答
AWS
Sagemaker
+ AWS
Lambda
amazon-web-services
、
aws-lambda
、
amazon-sagemaker
我尝试使用亚马逊网络服务的
SageMaker
下面的文档。我成功地
加载
了数据,训练并部署了
模型
。deployed-model 我的下一步必须使用AWS
Lambda
,将其连接到此
SageMaker
端点
。我看到,我需要给
Lambda
IAM执行角色权限来调用
模型
端点
。PutLogEvents" "Resource": [ "arn:aws
浏览 16
提问于2020-10-02
得票数 0
回答已采纳
2
回答
如何将在
SageMaker
上训练的
ML
模型
部署到本地计算机以运行predict?
amazon-web-services
、
amazon-s3
、
amazon-sagemaker
我看了很多关于在本地部署
SageMaker
模型
的帖子,但它们必须绑定到一个亚马逊网络服务笔记本实例,才能在本地运行预测/服务(亚马逊网络服务
SageMaker
Python SDK)。这违背了完全脱机运行
Sagemaker
训练
模型
的实际意图。还有一些人尝试在S3上取消对tar.gz文件的筛选,然后包装要在本地部署的内容。然而,该过程似乎非常局限于某些类型的
模型
,如XGBoost和MXnet。因此,有没有办法脱机部署
SageMaker
训练过的
模型</em
浏览 4
提问于2020-02-20
得票数 2
1
回答
Sagemaker
Tensorflow
2.0
端点
amazon-web-services
、
endpoint
、
tensorflow2.0
我有一个
tensorflow
2.0
模型
,我想部署到AWS
sagemaker
端点
。我已经将
模型
移到了S3存储桶
中
,并执行了以下代码,但由于没有TF2.0图像,因此出现了下面的错误。原因:镜像'520713654638.dkr.ecr.eu-west-1.amazonaws.com/
sagemaker
-
tensorflow
:2.0-cpu-py2‘不存在..from
sagemaker
.
tensorflow
浏览 16
提问于2019-11-19
得票数 0
回答已采纳
1
回答
如何使用
SageMaker
SDK为Boto3培训作业指定源目录和入口点?用例是通过
Lambda
调用开始培训。
python
、
amazon-web-services
、
tensorflow
、
boto3
、
amazon-sagemaker
我一
直
在使用
SageMaker
Python在
SageMaker
笔记本实例上运行培训作业,并在本地使用IAM凭据。他们工作得很好,但我想通过AWS + Gateway开始一项训练工作。
Lambda
不支持
SageMaker
SDK (高级SDK),因此我不得不在我的
Lambda
处理程序中使用来自boto3的
SageMaker
客户端。下面是我的
SageMaker
SDK调用的一个示例 tf_estimator =
TensorFlow
(b
浏览 4
提问于2021-02-23
得票数 0
回答已采纳
2
回答
无法在python中使用Boto3客户端从AWS
Lambda
调用
SageMaker
端点
(
TensorFlow
模型
amazon-web-services
、
numpy
、
tensorflow
、
lambda
、
amazon-sagemaker
我部署了一个公开了AWS
SageMaker
端点
的
TensorFlow
模型
。在
Lambda
Python
中
,我使用boto3客户端来调用
端点
。
TensorFlow
模型
接受3个输入,如下所示 {'input1' : numpy array , 'input2' : integer ,'input3' :numpy array } 从
Lambda
使用runtim
浏览 19
提问于2019-05-30
得票数 0
1
回答
使用
SageMaker
时使用Keras提前停止和回调
keras
、
amazon-sagemaker
我正在使用
sagemaker
来训练keras
模型
。在训练
模型
时,我需要实现早期停止方法。results = model.fit(train_x_trim, train_y_trim,,我们需要调用
SageMaker
的fit
函数
,该
函数
不支持回调。from
sagemaker
.<e
浏览 27
提问于2018-11-27
得票数 3
1
回答
在亚马逊
SageMaker
中进行预测之前,对输入数据进行预处理
python
、
tensorflow
、
machine-learning
、
keras
、
amazon-sagemaker
我有一个我们自己训练的Keras/
tensorflow
模型
,它做与图像相关的预测。我已经按照这个在
Sagemaker
中部署了
模型
,并且可以调用
端点
进行预测。现在,在我的客户端代码
中
,在通过调用
Sagemaker
端点
进行预测之前,我需要下载图像并进行一些预处理。我希望在
SageMaker
中
完成整个过程,而不是在客户端执行此操作。我该怎么做?看起来我需要更新这里提到的入口点python代码train.py: <
浏览 1
提问于2019-02-26
得票数 3
2
回答
如何使用亚马逊网络服务部署多个
TensorFlow
模型
?
python
、
amazon-web-services
、
tensorflow
、
deployment
我已经训练了10个不同的
TensorFlow
模型
来进行样式转换,基本上每个
模型
都负责根据样式图像对图像应用滤镜。因此,每个
模型
都是独立运行的,我希望将其集成到一个应用程序
中
。有没有办法使用AWS部署这些
模型
? 我尝试使用API部署这些
模型
,然后使用AWS
Lambda
的
端点
,最后使用API Gateway创建
SageMaker
。但是这里的问题是,我们只能在
SageMaker
上部署一个
模型</
浏览 2
提问于2019-06-11
得票数 1
3
回答
如何使
SageMaker
的参数可用--流动
端点
amazon-web-services
、
tensorflow
、
amazon-sagemaker
我希望使
SageMaker
中
的服务
端点
可以使用一些超参数。code_location'], train_instance_type='
ml
.c4evaluation_steps=None,但是,在部署
端点
时,无法传递用于控制input_fn(serial
浏览 0
提问于2018-03-22
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
对 PyTorch BERT 模型进行微调,并将其部署到 Amazon SageMaker 上的 Amazon Elastic Inference
无服务器计算的机器学习,出路在哪里?
AI“蛋糕”的烘焙师
使用Java部署训练好的Keras深度学习模型
从零开始:TensorFlow机器学习模型快速部署指南
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券