腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(5719)
视频
沙龙
1
回答
对
可对
SageMaker
端点
进行
推断
的
速率
限制
amazon-sagemaker
对
SageMaker
端点
的
推断
速度是否有
限制
? 它是由
端点
后面的实例类型还是实例数量决定
的
?我试着以AWS Service Quotas for
SageMaker
的
身份查找这个信息,但是没有找到。我正在从Spark作业调用
端点
,并且想知道并发任务
的
数量是否是运行推理时应该注意
的
因素(假设每个任务一次运行一个推理)。下面是我得到
的
节流错误: co
浏览 14
提问于2020-01-23
得票数 1
回答已采纳
1
回答
用于处理
sagemaker
批处理流水线
的
数据
的
是SKlearnEstimator还是SKlearnProcessor
python
、
machine-learning
、
scikit-learn
、
amazon-sagemaker
、
data-processing
处理特性
的
选项(在
推断
之前)感到困惑--我
对
这两个选项
的
理解是: aws中有一些文档使用
sagemaker
.sklearn.estimator.SKLearn
进行
批处理转换来处理数据。使用该类及其.create_model()方法
的
优点是,我可以将创建
的
模型(在
推断
之前处理特性)合并到部署在
端点
上
的
sagemaker
.pipeline.PipelineModel中。但是,如果它仅用
浏览 13
提问于2022-09-25
得票数 -1
回答已采纳
1
回答
Sagemaker
模型-调用InternalFailure操作时发生了错误(达到最大值重试: 4):
amazon-web-services
、
amazon-sagemaker
请检查以下错误
的
细节。调用InvokeEndpoint操作时出现错误(InternalFailure) (达到最大值重试: 4):向模型发送请求时出现异常。没有特定
的
登录云表。
浏览 5
提问于2021-04-09
得票数 0
回答已采纳
1
回答
按
端点
调用
SageMaker
笔记本实例函数
amazon-web-services
、
machine-learning
、
aws-lambda
、
amazon-sagemaker
我是AWS
的
新手。现在,我已经在
SageMaker
笔记本实例中定义了图像分割功能,这将返回掩码。再次,我是如此陌生
的
AWS,我开始怀疑
SageMaker
不是为这项工作而设计
的
。我选择
SageMa
浏览 3
提问于2020-07-07
得票数 1
1
回答
利用AWS雅典娜表中
的
数据和实时数据
进行
预测
machine-learning
、
time-series
、
amazon-athena
、
amazon-sagemaker
我们
的
客户将病人当前
的
重要信息发送到AWS
SageMaker
推断
端点
,以预测患者未来
的
健康状况。病人数据被保存到AWS S3桶中,我们使用雅典娜从保存
的
数据构建一个表。我们
进行
了离线训练,发现重要信息
的
变化是预测患者未来健康状况
的
重要特征。有谁知道我如何查询Athena表来提取给定
的
病人历史生命信息,并将历史和当前
的
重要信息发送到AWS
的
Sagemake
浏览 1
提问于2022-06-07
得票数 0
回答已采纳
2
回答
在不创建
端点
的
情况下使用AWS
Sagemaker
实现模型性能
pytorch
、
amazon-sagemaker
我一直在使用Amazon
Sagemaker
Notebook为NLP任务构建pytorch模型。我知道您可以使用
Sagemaker
进行
训练、部署、超参数调优和模型监控。但是,看起来您必须创建一个推理
端点
,以便监视模型
的
推理性能。我已经设置了一个EC2实例来在我们
的
模型上执行
推断
任务,这个模型目前在一个开发箱中,而不是使用
端点
来创建 是否可以使用
Sagemaker
来训练、运行超参数调整和模型求值,而无需创建
端点
。
浏览 5
提问于2020-09-19
得票数 1
回答已采纳
1
回答
如何在AWS
SageMaker
中部署自定义模型?
amazon-web-services
、
machine-learning
、
deployment
、
scikit-learn
、
amazon-sagemaker
我还有一个用户定义
的
Estimator类,它使用Optuna
进行
超参数调优。我需要将这个模型部署到
SageMaker
,以便从lambda函数调用它。 在为模型和估计器创建容器
的
过程中,我遇到了麻烦。我知道
SageMaker
有一个可以用于Optuna
的
scikit学习容器,但是我如何利用它来包含来自我自己
的
Estimator类
的
函数呢?而且,模型是传递给这个Estimator类
的
参数之一,所以我如何将它定义为一个单独
的
浏览 3
提问于2020-06-25
得票数 5
2
回答
TensorFlow服务与TensorFlow
推断
(
SageMaker
模型
的
容器类型)
tensorflow-serving
、
amazon-sagemaker
我
对
TensorFlow (和
SageMaker
)相当陌生,而且还停留在部署
SageMaker
端点
的
过程中。但是,当我检查用于
端点
的
映像时,它会说‘./ TensorFlow -
推断
’,这不是我想要进入
的
方向,因为我想使用一个
SageMaker
TensorFlow服务容器(我遵循了官方
的
TensorFlow服务GitHub回购指南--使用示例模型,它们是使用TensorFlow服务框架<
浏览 1
提问于2020-07-14
得票数 2
回答已采纳
1
回答
如何使用
Sagemaker
中经过训练
的
图像分类模型
对
通过网页上传
的
图像
进行
推理?
amazon-web-services
、
aws-lambda
、
detection
、
amazon-sagemaker
、
inference
我已经使用
sagemaker
训练了我
的
图像分类模型,并使用
端点
进行
了部署。我还创建了一个接受图像
的
网页。此外,我还能够创建api。我不确定如何创建lambda函数来接受图像并
对
图像执行
推断
。
浏览 11
提问于2020-03-27
得票数 0
2
回答
使用每个实例
的
实例指标
进行
aws
Sagemaker
自动缩放
amazon-web-services
、
amazon-cloudwatch
、
autoscaling
、
amazon-sagemaker
我使用aws
Sagemaker
端点
进行
推断
。根据流量,
端点
应通过向
端点
添加更多实例来
进行
扩容和缩容。我正在尝试使用实例指标(CPUUtilization、MemoryUtilization或DiskUtilization)作为
sagemaker
端点
自动缩放
的
指标。这些是这里定义
的
预定义指标: 问题在于,给定
端点
的
实例指标是
端点
中所有运行
浏览 1
提问于2019-12-16
得票数 1
2
回答
S3中
对
多幅图像
进行
推理
的
最佳方法?
amazon-s3
、
resnet
、
amazon-sagemaker
我用内置
的
RESnet18坞映像训练了一个模型,现在我想将模型部署到
端点
,并
对
大约100万张图像
进行
分类。我在S3上以RecordIO格式存储了所有的培训、验证和测试图像(与转换)。根据 亚马逊
SageMaker
图像分类算法支持RecordIO (应用程序/x-记录)和图像(应用程序/x-图像)内容类型
进行
培训。该算法只支持更好
的
应用/x图像
进行
推理。因此,我不能用RecordIO格式
对
我
的</
浏览 2
提问于2018-04-26
得票数 0
回答已采纳
1
回答
为
Sagemaker
加载非S3数据源
java
、
aws-sdk
、
amazon-sagemaker
我正在设置一个lambda函数,它使用随机剪切森林算法执行
SageMaker
推理。我知道,如果我
的
lambda是在python,那么我将能够传递我
的
数据,把它转换成熊猫
的
数据,然后运行rcf_inference.predict(data)来获得我
的
结果。我能够使用下面的Java代码
进行
批处理转换,但是在查看了java文档之后,我
的
TransformDataSource看起来必须有一个S3DataSource,而不是任何其他类型
的
源代码。这是不幸
浏览 3
提问于2019-07-02
得票数 0
回答已采纳
3
回答
限制
自己重载外部API
的
速率
php
、
laravel
我发现了很多信息和脚本示例,它们展示了如何
对
API
的
用户
进行
速率
限制
,但我找不到任何关于如何在施加这些
限制
时
对
您自己
的
API请求
进行
速率
限制
的
示例。我总是用诸如sleep或usleep命令之类
的
代码
限制
我
的
脚本,但这感觉像是一种低效
的
处理方式,特别是当API
端点
有相当高
的
<e
浏览 38
提问于2015-07-03
得票数 22
回答已采纳
2
回答
SageMaker
--
对
CloudFormation中
SageMaker
实体
的
澄清
amazon-web-services
、
amazon-sagemaker
问题当查看中
的
图表时,
SageMaker
中
的
Model 工件是由模型培训阶段
的
ML算法对接器容器生成
的
数据,并存储在S3桶中。 但是,AWS::
SageMaker
::Model似乎捕获了一个码头映像,以在
SageMaker
端点
实例中运行推理代码。在S3桶中没有
对
模型数据
的
引用。模
浏览 2
提问于2020-03-27
得票数 1
4
回答
如何在包依赖关系>500 on
的
AWS lambda上运行python代码?
python
、
amazon-web-services
、
aws-lambda
、
xgboost
、
amazon-sagemaker
需要
的
是,我必须在lambda上触发一个
SageMaker
端点
来获得预测(这很容易),但是必须使用XGBoost和SHAP这样
的
包
对
变量
的
重要性
进行
额外
的
处理。我能够到达
端点
,并获得可变
的
重要性使用
SageMaker
木星笔记本。现在,我想在AWS lambda上复制同样
的
东西。1) 如何在AWS上运行python代码,其中包含Pandas、XGBoost和SHAP
的</em
浏览 0
提问于2019-04-01
得票数 6
1
回答
在
SageMaker
中部署自定义预处理和后处理脚本
amazon-web-services
、
endpoint
、
amazon-sagemaker
我正在尝试将一些python脚本转换为
SageMaker
中
的
可调用
端点
。我
的
预处理(特征工程)和后处理脚本都是用python编写
的
,其中有一些相互依赖
的
脚本和方法。预处理步骤也不一定来自SKLearn,它们是自定义函数,每次都需要从预处理
端点
调用原始数据,然后使用另存为第二
端点
的
模型
进行
预测。第三个
端点
将用于后处理步骤,并连接这3个
端点
,我们希望每次都将数据从原始格式转换为输出格式
浏览 21
提问于2021-07-24
得票数 0
1
回答
IP地址
对
NGINX分组
的
速率
限制
nginx
、
nginx-config
、
throttling
、
rate-limiting
我们正试图在Django NGINX服务器上实现请求
速率
限制
。我阅读了一些关于如何做到这一点
的
文章,比如。 我可以看到,可以对IP地址和特定
的
“位置”(即API
端点
)设置特定
的
速率
限制
。例如,我们有一个有5个IP地址
的
合作伙伴,我们希望在特定
的
API (/user/)上应用10个rps
的
速率
限制
,但是这10个rps是
对
所有5个
浏览 8
提问于2022-06-02
得票数 0
回答已采纳
2
回答
NVIDIA Triton
对
TorchServe
的
SageMaker
推断
amazon-sagemaker
、
inference
、
tritonserver
、
torchserve
、
amazon-sagemaker-model-servers
对
进行
SageMaker
推断
?什么时候推荐每一种?有谁有一个很好
的
对比矩阵吗?
浏览 26
提问于2022-09-23
得票数 1
回答已采纳
3
回答
如何
对
AWS
Sagemaker
托管
的
自定义Tensorflow模型使用多个输入
python
、
amazon-web-services
、
tensorflow
、
amazon-sagemaker
我有一个经过训练
的
Tensorflow模型,它使用两个输入来
进行
预测。我已成功地在AWS
Sagemaker
上设置并部署了该模型。from
sagemaker
.tensorflow.model import TensorFlowModel
浏览 0
提问于2019-06-07
得票数 1
1
回答
转换应用程序/x-recordio protobuf中
的
PNG图像以调用C#中
的
sagemaker
端点
c#
、
amazon-sagemaker
我正在尝试使用一个InvokeEndpointRequest对象在C#中
对
一个
SageMaker
端点
进行
一些
推断
。我
的
推论主体是PNG或JPEG图像。但是,
SageMaker
需要application/x-recordio-protobuf格式。如何将我
的
图像文件转换为这种格式,以便能够对上述对象使用InvokeEndpoint。
浏览 0
提问于2019-04-06
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
对 PyTorch BERT 模型进行微调,并将其部署到 Amazon SageMaker 上的 Amazon Elastic Inference
谈金融服务领域的机器学习最佳实践
AWS将Amazon SageMaker Opeartors正式引入Kubernetes,开发者可轻松训练模型
最终,我选择了GraphQL 作为企业 API 网关
Crossplane支持的自定义资源数量突破了Kubernetes的限制
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券