腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
如何连
接到
单个
Kafka
流
应用程序
中
的多个集群?
、
在
中
,它说: 我是否可以创建多个KafkaStreams实例,它们具有连
接到
不同集群的不同属性?
浏览 10
提问于2017-08-23
得票数 13
1
回答
Kafka
流
:
将
值
连
接到
数组
中
、
我有一个
kafka
流
,它补齐了KTable
中
缺失的
值
(leftjoin做得很好)。但有时,我必须将每个
值
连
接到
一个
数组
中
,而我不知道如何正确地这样做。但是对于孩子,我不知道如何
将
每个孩子循环到
数组
中
(我不知道有多少孩子)。实际上,这是一项工作,但我不确定这是不是最好的方法,我更喜欢避免使用内部
kafka
存储来执行reduce和aggregation操作。 有没有人有更好的主意?感谢
浏览 6
提问于2018-02-28
得票数 2
1
回答
我可以使用spark 2.3.0和pyspark来做
Kafka
的
流
处理吗?
、
、
我将使用pyspark进行
流
处理,并使用
Kafka
作为数据源。 我发现Spark Python API不支持
Kafka
0.10
连
接器。我可以在Spark 2.3.0
中
使用
Kafka
0.8
连
接器吗?
浏览 14
提问于2018-03-02
得票数 4
2
回答
阅读由debezium postgres连接填充的Docker
Kafka
消息
、
、
、
按照标准的例子,卡夫卡和动物园管理员正在码头集装箱
中
运行。postgres正在本地运行。55=消费者-1,群55=控制台-消费者-5221
连
接到
节点-1 (
kafka
/23.202.231.166:9092)。(org.apache.
kafka
.clients.NetworkClient) 2019-06-03 21:55:16,289警告消费者客户55=消费者-1,群55=控制台-消费者-5221
连
接到
节点(org.apache.
kafka
浏览 2
提问于2019-06-04
得票数 0
2
回答
在不同的服务器上消费和生成
Kafka
消息
、
、
、
我的脚步1)bin/zookeeper-server-start.sh config/zookeeper.properties3)bin/
kafka
-topics.sh --create --zookeeper localhost:2181 --replication-factor当我运行1A)使用者并在生产者
中
输入消息时,使用者
中
不会出现任何消息。当我运
浏览 6
提问于2017-04-03
得票数 1
3
回答
Confluent消费者-主题[test-1]是/不存在的,missingTopicsFatal是真的
、
、
、
当在Confluent上使用
Kafka
时,在我的使用者(ServiceB)
将
消息发布到主题后,我会得到以下错误。然而,当我登录到我的合流云时,我看到消息已经成功地发布到了主题中。org.springframework.context.ApplicationContextException: Failed to start bean 'org.springframework.
kafka
.config.internalKafkaListenerEndpointRegistryjava.lang.IllegalStateExcepti
浏览 6
提问于2019-12-05
得票数 0
1
回答
有没有办法用端口80或443
连
接Azure虚拟机上的
Kafka
?如果没有,为什么?
、
、
我想连
接到
卡夫卡使用端口80在我的Azure虚拟机。我在虚拟机上安装了Java和
Kafka
。我为端口80添加了入站端口规则。 KafkaServer id=0在KafkaServer启动期间发生致命错误。但是我不能用端口80或443
连
接到
它。问题是,我
浏览 4
提问于2020-09-04
得票数 0
回答已采纳
1
回答
使用
Kafka
和Zookepper的Docker镜像
、
、
我正在尝试使用Docker运行
Kafka
和Zookepper,遵循这里定义的步骤:docker run -p 2181:2181 -p 9092:9092env ADVERTISED_HOST=`docker-machine ip \`docker-machine active\`` --env ADVERTISED_PORT=9092 spotify/
kafka
浏览 7
提问于2018-01-07
得票数 1
回答已采纳
1
回答
是否自己创建了一个消费者组(因为它不关心应用程序
中
给出的group.id属性)
、
、
、
让我们说,我刚刚推出了一个卡夫卡直接
流
+火花
流
应用程序。对于第一批,驱动程序
中
的流上下文连
接到
Kafka
并获取startOffset和endOffset。然后,启动具有这些开始和结束偏移范围的火花作业,以便执行者从
Kafka
获取记录。我的问题从这里开始。当第二批的时间,流上下文连
接到
卡夫卡的开始和结束偏移范围。如果没有允许存储最后一次提交偏移
值
的使用者组(因为直接
流
没有考虑到group.id),那么
Kafka
如何能够
浏览 4
提问于2020-02-27
得票数 0
回答已采纳
1
回答
是否有方法为每个主题指定引导服务器和模式注册表?
、
、
我的application.properties具有以下属性: spring.
kafka
.bootstrap-servers=localhost:32202 spring.
kafka
.properties.schema.registry.urlspring.
kafka
.consumer.bootstrap-servers=consumer-localhost:32202 spring.
kafka
.consumer.schema.registry.url=consumer-127.0.0.1:8082 spring.
浏览 5
提问于2022-11-08
得票数 0
1
回答
在docker compose
中
连接
kafka
连接器和
kafka
Broker时,broker可能不可用
、
、
kafka
-connect_1 | 2020-10-18 04:11:44,671 INFO ||
Kafka
version: 2.5.0 [org.apache.
kafka
.common.utils.AppInfoParser]
kafka
-connect_1 | 2020-10-18 04:11:44,672 INFO ||
Kafka
commitId: 66563e712b0b9f84 [org.apache.
kafka
.common.utils.App
浏览 139
提问于2020-10-18
得票数 1
2
回答
无法
将
停靠程序连
接到
kafka
码头容器
、
、
运行dockerize应用程序后,docker日志
将
显示在卡夫卡日志
中
,它显示了
kafka
-zookeeper-1 | 2021-12-07 06:17:15,755 [myid:1] - WARN [NIOWorkerThread-7:ZooKeeperServer@1411: p
浏览 16
提问于2021-12-07
得票数 3
1
回答
Apache Flink中使用Java的通用协议缓冲区反序列化程序
、
、
、
场景: Apache Flink、
Kafka
、Protocol buffers data consumer。数据来源为协议缓冲区格式的
Kafka
主题(多个主题: topic#1、topic#3、topic#3)。使用者是Apache Flink使用者。每个主题都有一个独特的协议定义。ProtobufDeserializationSchema](topicList, new ProtobufDeserializationSchema(), properties)); 我正在尝试在Apache Flink
中
开发一个通用的数据摄取作业,
将
浏览 13
提问于2021-04-03
得票数 0
2
回答
我们能用org.apache.
kafka
.clients.producer.ProducerConfig在'delivery.timeout.ms‘
中
设置生产者配置吗?
、
现在,我正在试图了解是否有一个选项可以设置生产者配置的自定义
值
‘交货.timeout.ms’?
浏览 2
提问于2020-02-13
得票数 0
回答已采纳
1
回答
在docker-compose.yml
中
为mac和ubuntu设置停靠主机ip (advertised.host.name)
、
、
我有一个web应用程序运行在docker容器
中
,一个
kafka
broker运行在另一个docker容器
中
。我正在使用码头-合成来设置码头集装箱。但是我发现要为码头容器配置网络有点困难。现在,我的web应用程序可以向
kafka
码头容器生成消息。但我还有另一个问题:我可以通过ifconfig docker0获得docker主机ip,并将其硬编码到dockerCompose.yml
中
。
浏览 1
提问于2018-01-26
得票数 2
1
回答
将
保存点添加到数据
流
、
、
、
我有一个
kafka
源,我的flink应用程序从它读取数据并处理它,我想添加flink的savepoint机制,以便从它离开的最后一个地方恢复进程,而不是
将
savepoint添加到
kafka
源,我希望我的应用程序保持最后处理的
流
的状态我已经向
kafka
源文件添加了存储点,以恢复
kafka
流
,但我想恢复已处理的数据
流
DataStream<String> streamOfStrings = env.addSource(new FlinkKaf
浏览 2
提问于2019-01-17
得票数 0
1
回答
如何从外部源向
Kafka
流
中
的记录添加上下文的正确方法
、
、
我有用
Kafka
流
处理的记录(使用处理器API)。假设记录有city_id和一些其他字段。 在
Kafka
应用程序
中
,我想将目标城市当前的温度添加到记录
中
。在Java应用程序
中
,我能够使用JDBC连
接到
Postgres,并构建new HashMap<CityId, Temperature>,因此我能够基于city_id查找温度。最初,我一直在AbstractProcessor::init()
中
这样做,但是这似乎是错误的,因为它是为每个线程初始
浏览 0
提问于2019-05-08
得票数 1
回答已采纳
1
回答
开发和测试Python代码以连接本地计算机上的
kafka
streams
、
、
、
、
到目前为止,我可以在Azure Databricks
中
编写代码。我想创建和部署连
接到
confluent
kafka
的库,并将数据保存到增量表。我弄糊涂了- 1]我是否需要通过如下设置从本地计算机连
接到
Databricks Delta,使用python
将
流
存储到增量或
将
流
存储到本地增量(我可以创建增量表 spark = pyspark.sql.SparkSession.builder.appNamespark.sql.catalog.spark_cata
浏览 0
提问于2021-01-08
得票数 1
2
回答
Flink间隔加入DataStream与KafkaSource删除所有记录
、
电流配置 应用程序运行在应用程序
中
的Flink 1.14.4上,数据
流
(由长链操作符产生)间隔连
接到
一个
Kafka
源。事件时戳每个分区严格上升。卡夫卡上的每分区水印策略
将
水印设置到它迄今看到的最大时间戳(有界无序=1秒)。默认情况下,
Kafka
源(间隔连接的右侧)比其他数据
流
(
kafka
> source )每1分钟生成一次数据,因此它的分区最多可被视为空闲59秒。因此,数据
流
中
的所有记录都被删除,因为它的时
浏览 12
提问于2022-06-17
得票数 0
回答已采纳
1
回答
在Flink
中
对数据
流
执行sql查找的最有效方法
、
给定来自
Kafka
的数据
流
,是否有内置的方法,或者执行SQL查找的最有效方法是什么。 例如,
将
流
对象连
接到
sql表,并将其与
Kafka
数据流连接。给定可以在自组织基础上更新的sql表,
浏览 16
提问于2020-04-15
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券