我正在尝试使用S3中的模型构件中的CDK部署。
Sagemaker模型需要execution_rol_arn。因此,我使用CDK创建了一个角色,并将其作为sagemaker模型的参数传递。但是它说在创建模型时角色并不存在。但是如果通过这个命令添加对资源的依赖,sagemaker_model.add_depends_on(model_role)。它给了我这个错误。
type of argument target must be aws_cdk.CfnResource; got aws_cdk.aws_iam.Role instead
我的cdk代码用于sagemaker模型和Iam角色
我希望有几个1000的图像注释与边界框在MTurk上。在阅读以下教程()时,任务的输出似乎如下所示:
The Worker with ID A39ECJ12CY7TE9 gave the answer
[{'left': 369, 'top': 47, 'width': 151, 'height': 160, 'label': 'stop sign'}]
对于我在Sagemaker中的对象检测模型,我需要一个文件夹中的jpg格式的训练图像的数据集,以及另一个文件夹中每个图像的json格式的正确注释
我正在尝试将使用tensorflow训练的对象检测模型部署到sagemaker。在模型创建过程中,我能够在没有指定任何入口点的情况下部署它,但结果证明,这样做只适用于小尺寸的映像(Sagemaker有5MB的限制)。我用于此的代码如下:
from sagemaker.tensorflow.serving import Model
# Initialize model ...
model = Model(
model_data= s3_path_for_model,
role=sagemaker_role,
framework_version="1.14"
我使用内置的SageMaker语义分割算法训练了一个sagemaker语义分割模型.这会将ok部署到SageMaker端点,我可以从它成功地在云中运行推断。我想在边缘设备(AWS全景设备)上使用模型,这应该意味着用SageMaker Neo编译模型,使其符合目标设备的规范。
然而,不管我的目标设备是什么( Neo设置),我似乎无法使用Neo编译模型,因为我得到了以下错误:
ClientError: InputConfiguration: No valid Mxnet model file -symbol.json found
语义分段模型的model.tar.gz包含hyperparams.j