腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
无法
将
kafka
使用者
消耗
的
数据
写入
hdfs
、
、
、
我试图使用分区0中
的
数据
,并将接收到
的
数据
写入
hdfs
上
的
文件,但它抛出异常,我看不到任何
数据
正在
写入
hdfs
文件import org.apache.hadoop.fs.Path import java.util.Propertie
浏览 12
提问于2017-06-25
得票数 0
1
回答
将
数据
从
HDFS
写入
Kafka
、
、
当
数据
最终
写入
HDFS
时,
Kafka
通常用于摄取管道。是否有任何设计使用
Kafka
将
数据
从
HDFS
传输到外部系统?我知道
Kafka
更适合作为一个消息传递系统,但是我们可以使用
Kafka
的
发布-订阅来传输
数据
吗?在这个用例中,生产者将把
数据
从
HDFS
(每次1行)
写入
主题,
使用者
将
异步读取。在实
浏览 2
提问于2015-12-24
得票数 2
回答已采纳
2
回答
需要安排MongoDB卡夫卡连接
、
、
、
我们正在开放源码Apache连接器之上与mongodb
kafka
connetor合作,以获取从Mongo到
HDFS
的
json
数据
。我们有
kafka
使用者
,它读取
kafka
中
的
数据
更改并将它们
写入
hdfs
文件。我们需要根据预定日期触发卡夫卡消息。
浏览 9
提问于2022-09-23
得票数 0
回答已采纳
1
回答
当列被移除时
Kafka
连接模式
的
演变
、
、
、
轮询从DB
写入
到
Kafka
topic.
HDFS
Sink连接器
的
数据
,读取来自
Kafka
主题
的
消息,并以Avro格式
写入
HDFS
。 (问题1)当
HDFS
连接器从主题读取消息时,它是否根据模式注册表中
的</em
浏览 0
提问于2019-07-17
得票数 3
回答已采纳
2
回答
带有avro记录
的
Kafka
、
、
、
、
我有:源-
kafka
主题(trans)通道-内存宿-
Hdfs
(avro_event)而不是:我猜这
浏览 0
提问于2015-03-01
得票数 2
1
回答
Camus迁移-
Kafka
HDFS
连接不会从设置偏移开始
、
、
、
、
我目前正在使用汇合
HDFS
Sink连接器(v4.0.0)来取代Camus。我们正在处理敏感
数据
,因此我们需要在连接到连接器
的
过程中保持偏移
的
一致性。切入计划: 使用删除请求停止连接器。使用/usr/bin/
kafka
-consumer-group
浏览 0
提问于2018-04-15
得票数 1
回答已采纳
2
回答
使用
Kafka
将
数据
从
Kafka
迁移到
HDFS
3
的
开源解决方案是什么?
、
、
、
除了汇合
的
HDFS
库(非开源)之外,是否有任何完全开放
的
源代码库可以
将
消息从
Kafka
(使用
Kafka
Connect)转移到
HDFS
3?
Kafka
连接
HDFS
2水槽-合流社区牌照
Kafka
Connect
HDFS
3 Sink -合流企业许可证 相关:
浏览 1
提问于2021-05-05
得票数 0
回答已采纳
1
回答
一个流查询使用多少个
Kafka
用户来执行?
、
我惊讶地看到,Spark只在一个
Kafka
用户
的
情况下
消耗
了
Kafka
的
数据
,并且这个用户在驱动程序容器中运行。我启动了我
的
Spark结构化流媒体应用程序,它
消耗
了这个主题,并写到
HDFS
上
的
Parquet。该应用程序有5个执行者。,我发现其中只有一个正在忙着
将
消耗
的
数据
写入
HDFS
上
的
Par
浏览 1
提问于2018-12-04
得票数 11
1
回答
汇合卡夫卡连接
HDFS
水槽连接器延迟
、
、
、
、
我有一个包含200万条消息
的
kafka
主题,我
的
刷新大小是100000,在分布式模式下,默认分区有4个工作人员,我能够在几秒钟内(10到15秒)看到
数据
被立即
写入
HDFS
。每次这么快写它是
kafka
connector
的
行为,还是已经
将
数据
存储在
HDFS
中,并根据连接器属性将其移动到主题目录? 如果我想计算这个延迟,我如何计算它?如果我停止并删除/topics和/temp中<em
浏览 0
提问于2018-07-20
得票数 2
回答已采纳
2
回答
如何连接两个卡夫卡流,每一个有多个寓意?
、
、
我有两个
Kafka
流,request和event分别在一个公共字段requestId上进行分区(最后两位数)。我想加入这两个流并写到
HDFS
或Localfilesystem?如何在加入两个consumer时只考虑相关
的
partitions来编写一个高效
的
streams
浏览 9
提问于2017-01-18
得票数 0
回答已采纳
2
回答
如何使用Flink独立集群上Flink作业中
的
两个Kerberos键(对于
Kafka
和Hadoop )?
、
、
、
、
问题 如果不可能,在
Kafka
和
HDFS
都受到Kerberos保护
的
情况下,对于
Kafka
-Flink-<em
浏览 0
提问于2018-05-02
得票数 5
回答已采纳
4
回答
Kafka
:使用公共消费者组访问多个主题
、
我们
的
集群运行
Kafka
0.11,并且对使用消费者组有严格
的
限制。我们不能使用任意
的
使用者
组,所以Admin必须创建所需
的
使用者
组。我们运行
Kafka
Connect
HDFS
Sinks从主题中读取
数据
并
写入
HDFS
。所有主题只有一个分区。案例1:
浏览 0
提问于2019-09-02
得票数 28
回答已采纳
2
回答
我应该使用什么:
Kafka
流或
Kafka
消费api或
Kafka
connect
、
、
、
我想知道什么是对我最好
的
:卡夫卡流或卡夫卡消费api或卡夫卡连接? 我想从主题中读取
数据
,然后进行一些处理并
写入
数据
库。因此,我已经编写了
使用者
,但我觉得我可以编写
Kafka
流应用程序,并使用它
的
有状态处理器执行任何更改并将其
写入
数据
库,这可以消除我
的
使用者
代码,只需要编写db代码。我想插入我
的
记录
的
数据
库是:
HDFS
-(插
浏览 3
提问于2017-09-04
得票数 7
1
回答
flink检查点如何帮助故障恢复
、
我
的
flink作业使用FlinkKafkaConsumer010从
kafka
consumer读取
数据
,并使用CustomBucketingSink接收到
hdfs
。以下是我
的
假设: Flink从
kafka
消耗
一些固定数量
的
事件(一次从多个分区获得多个偏移量),并等待,直到它到达接收器,然后是检查点。在成功
的
情况下,它提交
kafka
分区,偏移它读取,并维护一些与它正在
写入
的
h
浏览 0
提问于2020-03-12
得票数 0
1
回答
一个消费者多个主题会导致潜在
的
线程问题吗?
、
、
、
我有一个REST服务,我们称它为MDD,它有一个
kafka
消费者。当我第一次启动rest服务时,另一个服务告诉MDD
的
使用者
订阅一个特定
的
主题,一切似乎都很顺利。现在我注意到
的
是,当第二个主题
的
订阅进入时,有时我会收到错误,
无法
附加到
HDFS
中
的
文件,当我查看日志时,它正在尝试附加一些本不应该在以后才附加
的
数据
。例如,
数据
到
kafka
的
顺序是A,
浏览 3
提问于2017-01-19
得票数 1
2
回答
使用
Kafka
、Storm和HBase进行实时处理
、
、
为我
的
无知道歉。 我们正在建立一个实时
数据
库,捕获基于网站上
的
成员活动
的
记录。发出这些信息
的
应用程序是IBM MQ。我们计划
将
Apache
Kafka
设置为使用来自IBM MQ
的
这些消息,并将其存储在HBase for Analytics中。
Kafka
有没有可能直接
将
这些信息
写入
HBase,或者我们应该在
Kafka
和HBase之间设置一个像Apache Storm这样
的</
浏览 1
提问于2015-06-25
得票数 1
1
回答
如何在OGG中为
Hdfs
配置
kafka
连接处理程序
、
、
我正在使用
Kafka
将
数据
从Oracle db迁移到Hadoop文件系统(在这里是新
的
)。我已经在oracle上配置了我
的
摘录,它将在我
的
源表中所做
的
更改发布给我
的
kafka
处理程序
使用者
,我可以看到有关我
的
主题
的
数据
。现在,我想在
kafka
连接处理程序上做同样
的
工作,我希望在我
的
hdfs
中<
浏览 0
提问于2019-05-13
得票数 0
回答已采纳
1
回答
在通过
hdfs
连接器从
kafka
写入
时,是否有一种限制avro文件大小
的
方法?
、
、
、
目前,我们使用Flink FsStateBackend检查点并设置fileStateSizeThreshold,
将
写入
HDFS
上avro/json文件
的
数据
大小限制在128 on。由于我们在新项目中没有使用高级Flink特性,所以我们希望使用
Kafka
Connect
HDFS
Connector中
的
Kafka
流直接
将
消息
写入
hdfs
(而不是旋转Flink)。但是,我<
浏览 0
提问于2018-08-08
得票数 1
回答已采纳
1
回答
使用
kafka
- Consumer groups.sh脚本删除消费者组是删除消费者组元
数据
的
安全方法吗?
、
我使用多线程
kafka
使用者
作为一个单独
的
60个分区
kafka
主题,每个
使用者
线程映射到每个分区。在消费完成后,使用KafkaConsumer.close()方法关闭每个
使用者
线程。在同一消费者不满意
的
情况下进行再消费期间(寻求开始是每个消费者
的
步骤),1或2个
使用者
线程
无法
从它们分配
的
分区中
消耗
。如果提供了新
的
使用者
组id,则不会出现此问题。因
浏览 2
提问于2019-10-25
得票数 0
1
回答
如何在
kafka
上进行批量处理,连接生成
的
数据
集?
、
、
假设我们有批作业生成记录到
kafka
中,并且有一个
kafka
连接集群消费记录并将它们转移到
HDFS
。我们希望以后能够在相同
的
数据
上运行批处理作业,但我们希望确保批处理作业能够看到生产者生成
的
全部记录。什么是好
的
设计?
浏览 5
提问于2022-07-27
得票数 -1
点击加载更多
相关
资讯
如何在Kerberos环境使用Flume采集Kafka数据并写入HDFS
如何将kafka中的数据快速导入Hadoop?
日均TB级数据,携程支付统一日志框架
3分钟带你了解「消息中间件」Kafka、RocketMQ
5G时代面临数据暴增,HDFS将解决数据存储的燃眉之急
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
云直播
活动推荐
运营活动
广告
关闭
领券