我正在接收Kinesis数据流中的cloudtrail日志。我正在调用一个流处理lambda函数,就像here描述的那样。然后将返回到流的最终结果存储到S3存储桶中。到目前为止,处理失败,并在S3存储桶中创建了以下错误文件: {"attemptsMade":4,"arrivalTimestamp":1619677225356,"errorCode":"Lambda.FunctionErrorresult status of Dropped, Ok, or
有没有办法使用REST API而不是SDK来“放入事件”?例如,在他们的文档中,我看到了https://docs.aws.amazon.com/personalize/latest/dg/API_UBS_PutEvents.html POST /events我们的问题是,我们需要记录来自iOS和web的事件以进行个性化,虽然似乎有js,但似乎没有用于个性化的iOS sdk,所以我们希望通过简单的REST调用来实现。或者使用lambda函数+ ap
我使用redis在亚马逊网络服务中使用ElastiCache,以便从我的网站存储一些用户数据。此解决方案不可扩展,我希望使用Amazon Kinesis data Firehose进行自动缩放流输出,使用AWS Lambda修改我的输入数据,将其存储在S3存储桶中,并使用AWS Athena访问它我已经用谷歌搜索了几天,但我真的不知道Amazon Kinesis Data Firehose是如何将数据存储在S3中的。Firehose是否将数据存储为每个
我是Lambda的新手,正在尝试模拟一个简单的函数来执行一个PUT into Kinesis Fireshose。我试过翻阅亚马逊网络服务的文档,但找不到任何确切的参考资料来编写一个简单的python脚本,以便从应用程序接口中获取并通过Firehose将JSON发送到S3。下面是我试图发布到Lambda的代码,但我想按计划将其发送到Firehose,而不是文件系统。try:
api = "http://<e
目前我有一个KinesisFirehose流设置,我使用AWS-SDK for Node.js发送每个印象的Avro数据,然后最终存储在S3中。这个问题Kinesis会将我发送给它的每个批处理的所有文件连接起来--因此,如果我将它配置为每300秒写入一次,那么它会将所有S3文件排入队列,将它们连接在一起,然后将它们写入到Kinesis。如果我只是将原始的JSON数据发送到Kinesis流,然后让另一个应用程序将JSON数据转换为Avro,可能会更好?然而,不得不为中间数据处理编写另一个