首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >使用Kafka将数据从API迁移到S3

使用Kafka将数据从API迁移到S3
EN

Stack Overflow用户
提问于 2020-09-24 03:04:17
回答 1查看 24关注 0票数 0

我是个新手,正在学习一个关于个人成长的项目。

我知道Kafka是用来摄取数据的,但是用它来摄取AWS S3中的数据有意义吗?

有没有其他方法可以做到这一点,或者在这种情况下使用Kafka会带来什么情况?

EN

回答 1

Stack Overflow用户

发布于 2020-09-24 03:22:27

将流数据接收到S3的最佳方式是Kinesis Data Firehose。Kinesis是一种类似于Kafka的技术,而Data Firehose是它的专用版本,用于将数据传递到S3 (或其他目的地)。它相当便宜且可配置,如果你想做的就是把数据放到S3上,它比Kafka少得多的麻烦。Kafka很棒,但它不会将开箱即用的数据传送到S3。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/64034702

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档