我尝试在Sagemaker中使用TensorFlow-Keras模型进行预测,但收到以下错误:
在Amazon Cloudwatch中,对于Lambda函数:
An error occurred (ModelError) when calling the InvokeEndpoint operation: Received client error (415) from model with message "
{
"error": "Unsupported Media Type: application/x-image"
}
在Cloudwat
我创建了一个AWS教育帐户,但sage maker在训练模型时给了我一个错误:
ClientError: An error occurred (AccessDeniedException) when calling the CreateTrainingJob operation: User: arn:aws:sts::387322780008:assumed-role/AmazonSageMaker-ExecutionRole-20200830T040703/SageMaker is not authorized to perform: sagemaker:CreateTrainingJob
我创建了一个自定义模型,并将其部署在sagemaker上。我正在使用批处理转换作业调用端点。如果输入文件很小,即csv文件中的行数较少,它就能工作。如果我上传了一个大约200000行的文件,我就会在云监视日志中得到这个错误。
2018-11-21 09:11:52.666476: W external/org_tensorflow/tensorflow/core/framework/allocator.cc:113]
Allocation of 2878368000 exceeds 10% of system memory.
2018-11-21 09:11:53.166493: W exte
我使用Google-Colab通过使用FbProphet创建模型,并尝试在Google-Colab本身中使用Apache。现在我可以在aws Sagemaker/Lambda中免费上传这个(without charge for Apache Spark and only charge for AWS SageMaker)笔记本了吗?
我指的是文档https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-featurestore/sagemaker_featurestore_fraud_detection_python_sdk.html#Ingest-Data-into-FeatureStore来创建ec2实例中的特性组。
在执行脚本时出错。
An error occurred (ValidationException) when calling the CreateFeatureGroup operation: The execution role ARN
我正试图在Amazon上部署一个多模型端点,并使用我使用示例创建的自己的模型容器。我可以分别为它们训练和创建端点,但例如,当我试图在多模型端点中收集mlp和cart时,会出现一个错误,即“cart,mlp用于生产变体AllTraffic没有通过ping健康检查。请检查此端点的CloudWatch日志”。当我检查CloudWatch日志时,我看不到任何不寻常的东西。我应该改变多模型端点的容器结构吗?
from time import gmtime, strftime
import os
import boto3
import time
import re
import sagemaker
mo
我有一个自定义容器(从nvidia/cuda:9.0-runtime派生)来在sagemaker上运行训练。但在启动时,我得到了错误CUDA driver version is insufficient for CUDA runtime version at torch/csrc/cuda/Module.cpp:32,它显然想告诉我的cuda版本不支持图形驱动程序(...how最好同时公开两个版本号和错误消息...),但我不知道如何找出容器中安装了什么显示驱动程序。我能找到的就是上面写着sagemaker内置了nvidia-docker。我试图在错误发生前触发nvidia-smi,但容器中不知