腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9270)
视频
沙龙
1
回答
Sagemaker
自定义
模型
:
创建
端点
时
出现
“
模型
数据
存档
太大
”
错误
最近,在使用已知良好的
端点
配置
时
,我不断收到这样的提示:“
模型
数据
存档
文件
太大
。请减小
模型
数据
存档
文件的大小,或者移动到内存更大的实例类型。”
错误
。
浏览 17
提问于2019-06-25
得票数 0
回答已采纳
1
回答
在没有估计器的情况下,我如何在本地使用内置的
Sagemaker
算法?
、
、
我有兴趣使用AWS
Sagemaker
built-in algorithms (或预先训练的
模型
)而不调用Estimator类,就像我在本地使用tensorflow或scikit-learn 一样。
浏览 2
提问于2022-11-11
得票数 1
回答已采纳
1
回答
亚马逊
SageMaker
多
模型
当使用运行在一个
端点
上的Amazon多
模型
选项
时
,我很感兴趣。实际情况如何?当我在不同的型号上发送更多的请求
时
,萨吉梅克能同时处理这个问题吗? 谢谢。
浏览 2
提问于2020-12-05
得票数 1
回答已采纳
2
回答
基于AWS
SageMaker
的
数据
预处理
、
、
我有一个
端点
,它在AWS上运行一个经过训练的
SageMaker
模型
,它期望
数据
具有特定的格式。最初,
数据
是在应用程序的客户端处理的,这意味着,API Gateway (接收AWS上的POST API调用)用来接收预处理过的
数据
,但是现在发生了变化,API Gateway将从客户端接收原始
数据
,而在发送到我们的
SageMaker
模型
之前预处理这些
数据
的工作取决于我们的工作流程。在这个工作流上
创建
预处理
浏览 5
提问于2020-10-08
得票数 1
回答已采纳
1
回答
s3://my-bucket/testing/model/output/model.tar.gz的CreateModel操作:找不到
模型
数据
、
、
我能训练我的模特from
sagemaker
.estimator import Estimator output_path="s3://my-bucket/testing",<e
浏览 0
提问于2020-10-07
得票数 0
1
回答
如何在AWS中运行预先训练的
模型
?
、
、
、
我有一个model.pkl文件,这是预先培训和所有其他文件有关的ml
模型
。我要把它部署到aws救世主上。在不经过培训的情况下,如何将其部署到aws sagmekaer,作为aws中的fit()方法,运行train命令并将model.tar.gz推送到s3位置,并且当使用deploy方法使用相同的s3位置部署
模型
时
,我们不会手动在s3中
创建
与由aws
模型
创建
的位置相同的位置,并使用一些时间戳来命名它。
浏览 4
提问于2019-10-10
得票数 5
1
回答
部署
时
,
SageMaker
未能提取容器的
模型
数据
存档
tar.gz
、
、
、
我正尝试在Amazon中部署一个现有的Scikit-Learn
模型
。所以一个
模型
不是在
SageMaker
上训练的,而是在我的机器上本地训练的。但是,当我试图部署
模型
时
,它总是给出“未能提取
模型
数据
存档
”的
错误
消息。=AWS_SECRET) s3.upload_file(Filename='model.tar.gz', Bucket=my_bucket, Key='models/model.tar
浏览 3
提问于2021-01-25
得票数 4
回答已采纳
1
回答
在不更新配置的情况下将新
模型
部署到
sagemaker
端点
?
、
、
、
、
我想将一个新
模型
部署到现有的AWS
SageMaker
端点
。该
模型
由不同的管道训练,并以mode.tar.gz形式存储在S3中。
sagemaker
端点
配置指向此作为
模型
数据
URL。然而,萨吉梅克并没有重新加载
模型
,我不知道如何说服它这样做。 我想将一个新
模型
部署到AWS
SageMaker
端点
。该
模型
由不同的管道训练,并以mode.tar.gz形式存储在S3中。我
浏览 5
提问于2022-11-24
得票数 2
2
回答
在
Sagemaker
模型
训练中,设备上没有剩余空间
、
、
我在AWS
Sagemaker
的p2实例上使用随Docker镜像一起运行的
自定义
算法(有点类似)model_path = "/opt/ml/model"不幸的是,显然随着时间的推移,
模型
变得
太大</e
浏览 54
提问于2018-07-26
得票数 2
回答已采纳
1
回答
如何使用dockerfile在aws
sagemaker
中运行python文件
、
、
我有一个python代码和一个
模型
,它是经过预先训练的,并且在代码i的同一个目录中有一个model.pkl文件,现在我必须运行或将它部署到aws,但是没有得到任何解决方案,因为aws只支持两个命令训练,我尝试将
模型
部署到s3并在部署时调用,我不知道它是正确的还是
错误
的。
浏览 3
提问于2019-10-09
得票数 3
2
回答
如何使用亚马逊网络服务部署多个TensorFlow
模型
?
、
、
、
我已经训练了10个不同的TensorFlow
模型
来进行样式转换,基本上每个
模型
都负责根据样式图像对图像应用滤镜。因此,每个
模型
都是独立运行的,我希望将其集成到一个应用程序中。有没有办法使用AWS部署这些
模型
? 我尝试使用API部署这些
模型
,然后使用AWS Lambda的
端点
,最后使用API Gateway
创建
SageMaker
。但是这里的问题是,我们只能在
SageMaker
上部署一个
模型
,但在我的例子中,我想部署10
浏览 2
提问于2019-06-11
得票数 1
1
回答
aws
sagemaker
端点
的输入json字符串是否有限制?
、
、
、
、
我有~5MB的json字符串,我想发送到我的
端点
。我使用boto3.client从python客户机调用
端点
。它抛出了ConnectionResetError。
浏览 3
提问于2020-04-06
得票数 1
回答已采纳
2
回答
SageMaker
--对CloudFormation中
SageMaker
实体的澄清
、
SageMaker
模型
但是,AWS::
SageMaker
::Model似乎捕获了一个码头映像,以在
SageMaker
端点
实例中运行推理代码。在S3桶中没有对
模型
数据
的引用。
端点
或S3
模型
数据
的
Sage
浏览 2
提问于2020-03-27
得票数 1
1
回答
SageMaker
终端Lambda中的实时
数据
预处理
、
、
、
、
为用户进行的每一次点击收集点击
数据
。 我正在使用多个AWS服务,如kinesis stream、Lambda和
sagemaker
。我已经
创建
了一个自动编码器
模型
,并将其部署为
sagemaker
端点
,当通过Kinesis流从网站接收到新的点击
数据
时
,将使用lambda调用该
端点
。因为
sagemaker
端点
包含唯一的
模型
,但lambda函数接收的点击
数据
是带有URL、
浏览 25
提问于2021-06-07
得票数 1
回答已采纳
1
回答
服务于亚马逊
SageMaker
的Tensorflow
、
、
、
、
我面临着在AWS
SageMaker
上服务tensorflow
模型
的问题。我在
SageMaker
环境之外训练了
模型
,现在我有了一个savedmodel.pb文件,我需要将它部署到
SageMaker
端点
上。因此,我简单地压缩了
模型
文件并将其上传到一个S3桶中。现在,在尝试
创建
端点
时
,我在Cloudwatch日志中得到以下
错误
: tensorflow_serving/sources/
浏览 0
提问于2019-02-11
得票数 2
2
回答
Amazon
Sagemaker
-无法评估提供的有效负载
、
、
我构建了一个
Sagemaker
端点
,并尝试使用Lambda+API网关唤醒它。我已经确认我的lambda函数的输入
数据
的形状与我训练
模型
的方式相同。ContentType='application/json',在我
创建
端点
/训练
模型
的jupyter笔记本中,我还可以使用numpy ndarray访问
模型
,所以我不明白为什么
浏览 0
提问于2020-11-28
得票数 2
2
回答
如何使用邮递员将请求传递给酒保
、
、
、
我已经训练了一个
模型
,并
创建
了
端点
。我试图使用postman调用
端点
。但是在训练
模型
时
,甚至在那之后,我还没有为训练
数据
指定任何标题。我不知道如何在向
sagemaker
发送邮件请求
时
创建
有效负载
浏览 1
提问于2018-04-05
得票数 8
回答已采纳
1
回答
向
sagemaker
上的tensorflow服务
模型
提供输入时出错。{'error':“缺少‘input’或'instances‘键”}
、
、
、
我有一个内置在TensorFlow中的
自定义
模型
。我正尝试在amazon
sagemaker
上部署此
模型
以进行推断。该
模型
接受三个输入,并给出五个输出。输入的名称为: 1.output_detections3 output_mrcnn_bbox5 output_rois 我已经成功地在
sagemaker
上
创建
了
模型
端点
,当我试
浏览 49
提问于2019-08-31
得票数 2
1
回答
自动售货机误差INVALID_INFERENCE_TYPE
我有一个简单的起泡
端点
你好世界
模型
。容器在本地可以正常工作,但是当部署在
Sagemaker
端点
时
,会
出现
以下
错误
。
浏览 5
提问于2022-09-14
得票数 3
回答已采纳
1
回答
AWS和
sagemaker
_pyspark有什么区别?
、
、
、
、
目前,我正在用
SageMaker
在AWS上运行一个概念的快速机器学习示例,我遇到了两个库:
sagemaker
和
sagemaker
_pyspark。我想处理分布式
数据
。我看到它下面所做的是训练
模型
,并
创建
一个
端点
,以便能够提供它的预测服务,我假设这个
端点
部署在当前
创建
并启动的EC2实例上。如果我错了就纠正我。,这样我就不必每次都等待新
端点
的
创建
?
sagemaker
_pyspark支持
浏览 2
提问于2021-03-26
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
对 PyTorch BERT 模型进行微调,并将其部署到 Amazon SageMaker 上的 Amazon Elastic Inference
AWS将Amazon SageMaker Opeartors正式引入Kubernetes,开发者可轻松训练模型
是时候好好治理 AI 模型了!
Kubernetes 1.26 版本正式发布:改进 Windows 支持,加强网络安全和管理功能
不敲代码就能搞机器学习?亚马逊云科技这回放了个大招
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券