腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Kafka
数据流
ID
、
、
、
我是
Kafka
的新手,正在尝试建立一个管道,将我的apache httpd日志连接到mongodb。 我有用
Kafka
Output从Filebeat产生的数据。然后使用
Kafka
Connect to a database (MongoDB)将数据下沉。不幸的是,我的Filebeat中的数据没有
ID
。我如何为它们创建
ID
,因为我希望在将文档沉入mongodb之前创建一个唯一的
ID
并将其插入文档中?我希望这可以在mapValues转换中实现;
浏览 16
提问于2019-02-08
得票数 0
回答已采纳
2
回答
GCP Dataflow是否支持python中的
kafka
IO?
、
、
、
我正在尝试使用python code.My代码中的
kafka
.ReadFromKafka()方法读取
kafka
主题中的数据,如下所示:import apache_beam as beam plants = ( | 'read' >
浏览 1
提问于2020-07-07
得票数 0
1
回答
Kafka
独立错误: WARN试图通过通道发送响应,通道没有打开的连接,连接
id
为0 (
kafka
.network.Processor)
、
我在一个独立的服务器上安装
kafka
,并尝试将
数据流
式传输到mongodb。当启动
kafka
服务bin/
kafka
-server-start.sh config/server.properties时,我收到一个警告: WARN试图通过没有打开的连接的通道发送响应,连接
id
为0(
kafka
.network.Processor)有人可以帮助解决
浏览 1
提问于2017-10-03
得票数 5
1
回答
Rest数据摄取到数据湖
、
、
将数据加载到
kafka
主题中,不重复
浏览 0
提问于2018-01-30
得票数 1
1
回答
卡夫卡集团的星火readStream
、
、
、
我正在使用Spark3.3.0和
Kafka
3.2.0。我希望在readStream中使用组
id
,但是当spark没有运行时,数据丢失了。当火花停止时,我如何停止
数据流
?我的代码; .format("
kafka
") .option("subscribe", "topic-name"
浏览 5
提问于2022-08-31
得票数 0
2
回答
可以从Google Dataflow向
Kafka
推送消息吗?
、
有没有办法将
Kafka
连接成Google
数据流
中的接收器?我知道我们可以在发布/订阅和
Kafka
中使用CloudPubSubConnector,但我不想在
数据流
和
Kafka
之间使用发布/订阅。
浏览 20
提问于2018-03-06
得票数 0
回答已采纳
1
回答
org.apache.
kafka
.common.errors.TimeoutException:超时:获取主题元数据时过期的java.lang.RuntimeException
、
、
我正在使用
数据流
kafka
到bigquery模板。启动
数据流
作业后,它会在队列中停留一段时间,然后失败,出现以下错误:在应聘工作时,我提供了以下参数:
kafka
主题名引导服务器ip和端口(私有ip)bigquery主题名SA,子网(运行
kafka</e
浏览 3
提问于2020-12-07
得票数 0
1
回答
我需要在Azure
Kafka
for HD Insight中获得
Kafka
Connect分布式jars和插件?
、
、
我正在尝试配置分布式
Kafka
connect,但在Azure HD Insight中找不到任何用于配置
Kafka
connect的jars。 你能帮我解决上面的问题吗?
浏览 14
提问于2021-06-01
得票数 0
1
回答
如何在spark中缓存
数据流
、
、
我想从
kafka
中读取结构化的流数据作为
数据流
,对于每个数据,我想用许多函数来处理它,所以我尝试缓存
数据流
。lines = spark\ .format("
kafka
")\ .option("
kafka
.bootstrap.servers", bootstrapServers
浏览 0
提问于2018-01-11
得票数 0
1
回答
Spark Structured streaming: JDBC接收器中的主键
、
、
、
、
我正在使用带有更新模式的结构化
数据流
从
kafka
主题中读取
数据流
,然后进行一些转换。 然后,我创建了一个jdbc接收器来使用Append模式将数据推送到mysql接收器中。val df: DataFrame = spark .format("
kafka
") // window aggregati
浏览 6
提问于2019-05-02
得票数 1
回答已采纳
1
回答
在Flink中对
数据流
执行sql查找的最有效方法
、
给定来自
Kafka
的
数据流
,是否有内置的方法,或者执行SQL查找的最有效方法是什么。 例如,将流对象连接到sql表,并将其与
Kafka
数据流
连接。给定可以在自组织基础上更新的sql表,
浏览 16
提问于2020-04-15
得票数 0
回答已采纳
1
回答
Kafka
中的
数据流
是什么?
为什么你用卡夫卡来谈论
数据流
。也许有人能告诉我术语
数据流
在
Kafka
中的真正含义。顺便说一句,我知道在
Kafka
中有生产者和消费者。生产者将数据发送到代理,然后代理将其发送给消费者。
浏览 0
提问于2021-05-02
得票数 1
1
回答
泉云
数据流
中的
Kafka
源
、
、
我正在从Spring迁移到Spring
数据流
。当我寻找模块列表时,我意识到有些源没有在中列出--其中之一就是
KAFKA
源代码。 我的问题是为什么在春云
数据流
中从标准源列表中删除
KAFKA
源?
浏览 4
提问于2016-07-24
得票数 4
回答已采纳
1
回答
Spring Metrics Collector配置与Spring cloud
数据流
docker-compose
、
我有以下docker-compose.yml我有
数据流
服务器运行,
kafka
,zookeeper,mysql,指标收集器。配置:(我只提供
数据流
-服务器(1.5.2版本),指标收集器)指标收集器:镜像: spring.cloud.stream.
kafka
.binder.brokers=
kafka
:9092 / metrics- spring.cloud.stream.
kafka
.binder.zkNodes=zookeeper:2181 -
kafka
-10环境
浏览 0
提问于2018-10-02
得票数 0
1
回答
将保存点添加到
数据流
、
、
、
我有一个
kafka
源,我的flink应用程序从它读取数据并处理它,我想添加flink的savepoint机制,以便从它离开的最后一个地方恢复进程,而不是将savepoint添加到
kafka
源,我希望我的应用程序保持最后处理的流的状态我已经向
kafka
源文件添加了存储点,以恢复
kafka
流,但我想恢复已处理的
数据流
DataStream<String> streamOfStrings = env.addSource(new FlinkKafkaConsumer010<>(topic
浏览 2
提问于2019-01-17
得票数 0
1
回答
阿帕奇风暴JoinBolt
、
我试图用JoinBolt将两个卡夫卡
数据流
(使用卡夫卡喷口)连接成一个
数据流
,并使用下面的代码片段() JoinBoltjoinBolt = new JoinBolt("
kafka</
浏览 1
提问于2018-08-22
得票数 0
回答已采纳
1
回答
Flink如何发现每个键的所有
kafka
分区
、
我在我的
数据流
中使用"keyby“。我希望flink发现每个密钥的所有
kafka
分区。我有30个分区和12个任务。我通过用户
id
"keyby“我的数据。我认为每个任务的flink只能发现特定的
kafka
分区&我不能在一个任务中检测到每个用户的所有数据。
浏览 29
提问于2019-10-07
得票数 0
1
回答
结构化火花流式传输多个写入
、
、
、
我正在使用一个
数据流
来写入
kafka
主题以及hbase。对于
Kafka
,我使用如下格式: .writeStream.format("
kafka
") .option("
kafka
.bootstrap.servers", Settings.
KAFKA
浏览 0
提问于2017-12-26
得票数 1
1
回答
Apache
Kafka
流构建器的使用
、
、
、
我一直在尝试Apache
Kafka
开源生产者和消费者
数据流
。我有一个问题,使用1.) KafkaProducer, producer.send和2.)它们不都是用于
kafka
流数据的吗?如果我只使用KafkaProducer, producer.send,我不能实现
数据流
吗?
浏览 1
提问于2018-03-16
得票数 0
1
回答
Kafka
重新分区(用于基于键的组)
、
、
当我们在基于某个键的流上应用group函数时,
kafka
如何计算这个值,因为在不同的分区中可能存在相同的键?我看到了()函数,它基本上对数据进行了重新划分,但我不明白这意味着什么。
浏览 1
提问于2020-05-18
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Spark Streaming处理Kafka数据流
大数据流处理:Flume、Kafka和NiFi对比
基于Spark Streaming实时处理Kafka数据流
在你的 Java 程序里调用 Kafka 发起数据流
腾讯云 Serverless 衔接 Kafka 上下游数据流转实战
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券