腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
kafka
具备规则引擎的能力吗?
apache-kafka
、
apache-kafka-streams
我们正在使用
kafka
进行消息传递和更多的东西,但现在有一个需求,我们需要基于一些规则的
数据处理
的某种规则引擎。
kafka
是否拥有这样的功能(规则引擎),或者我们必须使用第三方规则引擎(例如:https://camunda.com/dmn/ ),并与
kafka
集成。
浏览 61
提问于2020-07-28
得票数 3
回答已采纳
2
回答
将Dstream中的分区数目增加到比直接方法中的
Kafka
分区大
apache-spark
、
apache-kafka
、
spark-streaming
、
rdd
、
dstream
它们是32个
Kafka
分区和32个使用者(按照Direct )。但是32位消费者的
数据处理
速度比
Kafka
慢(1.5倍),这在
Kafka
中造成了大量的数据积压。我希望解决方案能够在消费者身上增加分区,而不是在
Kafka
中增加分区。
浏览 0
提问于2018-08-22
得票数 0
回答已采纳
2
回答
无风暴/火花流
Kafka
中的
数据处理
apache-kafka
我知道可以使用Storm或Spark流对
kafka
进行实时
数据处理
,但我想问一下,
kafka
中是否有类似于Flume拦截器的功能,其中数据清理等功能可以在事件中执行。
浏览 3
提问于2016-03-06
得票数 0
回答已采纳
2
回答
使用
Kafka
、Storm和HBase进行实时处理
hbase
、
apache-kafka
、
apache-storm
我们计划将Apache
Kafka
设置为使用来自IBM MQ的这些消息,并将其存储在HBase for Analytics中。
Kafka
有没有可能直接将这些信息写入HBase,或者我们应该在
Kafka
和HBase之间设置一个像Apache Storm这样的实时流引擎?这就是
Kafka
--> Storm --> HBase。 感谢您的宝贵反馈。
浏览 1
提问于2015-06-25
得票数 1
1
回答
kafka
流媒体中的消息加密
apache-kafka
、
microservices
、
apache-kafka-streams
我最近正在尝试使用
kafka
streaming进行一些敏感
数据处理
。我希望实现的目标是,当敏感数据被加密时,微服务架构的能力不会受到影响,即,紧密耦合的服务和流
数据处理
。我的问题是,在
kafka
流中,有没有可能我用一个密钥解密传入的消息,然后用另一个密钥再次加密?我有一个计划,但由于我不熟悉
kafka
streaming,我不能证明
kafka
streaming有能力使用Streams DSL处理此功能。
浏览 34
提问于2020-01-14
得票数 0
回答已采纳
4
回答
TBDS是否支持实时数据接入、国产数据库接入?
官方文档
、
机器学习
、
数据库
、
大数据处理套件 TBDS
、
工业物联
腾讯云文档中没有关于TBDS数据接入组件的说明,TBDS都支持哪些数据来源?是否支持工业物联网设备实时数据采集?是否支持如达梦、翰高等国产数据库?另外机器学习平台DI-X也没有相关文档支持。 [附加信息]
浏览 847
提问于2018-04-08
2
回答
我能在卡夫卡经纪人的同一台机器上运行
Kafka
流应用程序吗?
apache-kafka
、
kafka-consumer-api
、
kafka-producer-api
、
apache-kafka-streams
我有一个
Kafka
流应用程序,它从几个主题中获取数据,并将数据加入到另一个主题中。
Kafka
配置:
Kafka
Topics - 15 partitions and 3 replication factor.
浏览 0
提问于2017-09-12
得票数 2
1
回答
卡夫卡消费者在卡夫卡的原始实例下降之后,直到它恢复正常,才能得到数据?
apache-kafka
、
persistence
我正在使用
kafka
控制台工具,并试图设置它,如果至少有一个
kafka
服务器实例仍然在线,仍然可以发送和接收消息,同时使用复制。但是,如果
kafka
1
离线
而
kafka
2在线,发送的消息就会被交换--抵消增加,但在
kafka
1恢复在线之前,consumer1和consumer2中的任何一个都无法读取。在我看来,消息需要复制到
kafka
1才能交付。1)为什么两个消费者都需要
kafka
1在线才能接收消息?2) producer1是否将自
浏览 6
提问于2017-02-28
得票数 0
回答已采纳
1
回答
文本文件或字符串(需要通知)
android
、
database
我想让我的应用程序
离线
,这就是不使用Firebase的原因。因此,我需要一个完美的建议,通过它,我想要的事情可以很容易地完成。 非常感谢您的帮助。
浏览 4
提问于2017-07-31
得票数 2
回答已采纳
1
回答
如何在使用火花流时自己保存多个分区的
Kafka
偏移量
apache-kafka
、
spark-streaming
我使用火花流读取
kafka
数据,并处理每一行。<String, String>Subscribe(topics,kafkaParams)然后我使用这个代码来处理
kafka
的数据。CanCommitOffsets) lines.inputDStream()).commitAsync(range) }); 我已经运行了这段代码,然
浏览 2
提问于2017-12-28
得票数 3
回答已采纳
1
回答
Redis的消息代理,何时使用
sockets
、
apache-kafka
、
redis
、
publish-subscribe
我最近读到了一些关于message的文章,最近我发现Redis也有自己的消息代理,比如RabbitMQ、
Kafka
、豆秆等等。Redis还内置了pub/sub机制。我也是socket.io的核心用户,所以我对此感到困惑: Redis的消息代理是否与RabbitMQ、
Kafka
、豆秆等其他人的工作方式类似?
浏览 2
提问于2020-11-05
得票数 0
3
回答
IoT网关与云服务器消息传递
java
、
websocket
、
mqtt
、
iot
我想实时接收所有的命令--什么是写命令的最佳选项,IoT网关应该监听它的数据 PUB/SUB机制(
Kafka
浏览 1
提问于2017-06-09
得票数 0
1
回答
etcd是否可以像
Kafka
一样作为消息总线使用,只有一个生产者?
apache-kafka
、
etcd
Etcd提供了分布式复制键值存储。假设我有4个集群etcd设置。假设我只有一个生产者,etcd可以用来模拟不同键事件之间的消息队列吗?假设生产者生成了以下四个事件: 1. Add:key1,value1 2. Add: key2,value2 3. Modify: key2,value3 4. Modify: key1,value4。所有的消费者会以相同的顺序看到这些事件吗?
浏览 0
提问于2016-09-28
得票数 1
1
回答
如果一个
Kafka
生成程序的分区试图发送消息到脱机,那么生产者可以尝试发送到另一个分区吗?
apache-kafka
、
kafka-producer-api
我的
Kafka
集群有5个代理,主题的复制因子为3。在某个时候,一些分区
离线
了,但最终它们回到了联机状态。我的问题是: 考虑到存在
离线
分区这一事实,有多少代理被关闭了呢?如果有
离线
分区,而
Kafka
生产者试图向它们发送消息却失败了,那么生产者会尝试其他可能在线的分区吗?消息中没有密钥。
浏览 5
提问于2020-09-11
得票数 0
1
回答
Angular PWA
离线
数据处理
angular
、
service-worker
、
angular-service-worker
、
angular-pwa
我想在我的angular项目中实现服务工作者,使我的web应用程序完全
离线
工作,这意味着用户应该在
离线
时处理尽可能多的数据,一旦他们发现互联网,那么数据应该更新与MongoDB (我们正在使用的数据库)
浏览 0
提问于2018-05-14
得票数 3
1
回答
如何在从
Kafka
中读取时异步进行spark流
apache-kafka
、
spark-streaming
我有一个
Kafka
分区和一个sparkStreaming应用程序。一台具有10核的服务器。当spark streaming从
Kafka
得到一条消息时,后续过程将需要5秒(这是我的代码)。所以我发现sparkStreaming读取
Kafka
消息非常慢,我猜当spark读出一条消息时,它会一直等到消息被处理,所以读取和处理是同步的。我想知道我可以让spark异步读取吗?因此,
Kafka
的读数不会被后续处理拖拽。然后火花将很快消耗来自
Kafka
的数据。然后我可以专注于spark内部缓慢的
数据处理</em
浏览 0
提问于2015-09-06
得票数 1
1
回答
Kafka
Conenct:处理完所有数据后自动销毁
apache-kafka
、
apache-kafka-connect
我想要备份和恢复一个
Kafka
主题中的大量数据到不同的目标(文件,另一个主题,S3,...)使用
Kafka
Connect。但是,它以流模式运行,因此永远不会终止。是否有任何选项/参数可使
Kafka
Connect连接器在所有当前
数据处理
完毕并存储到文件中后自动终止?
浏览 0
提问于2018-07-24
得票数 0
1
回答
如何在ADLS和
kafka
之间建立连接,处理数据库中的文件/数据
apache-kafka
、
azure-data-factory
、
databricks
、
azure-data-lake
我们有一个源,它产生流数据到ADLS路径,需要一个解决方案来连接ADLS和
kafka
,并使用databricks/ADF中的流
数据处理
。如何实现这个用例?
浏览 4
提问于2022-07-07
得票数 0
1
回答
从队列使用者动态打开
Kafka
流
apache-kafka
、
apache-kafka-streams
我们有一个用例,基于到达工作队列的工作项,我们需要使用消息元数据来决定从哪个
Kafka
主题流式传输我们的数据。因此,如果一个工作者有"n“个线程,我们可能会将
kafka
流打开到"n”个不同的主题。(n通常小于10)。一旦工作进程处理完消息,我们还需要关闭流。工人可以收到下一条消息,一旦它确认了第一条消息,在这一点上,我需要打开另一个主题的
kafka
流。此外,每个
kafka
流都需要扫描主题的所有分区(大约5-10个),以根据某个属性进行过滤。这样的流是否适用于
Kafka
流,或者这不是一种
浏览 17
提问于2020-09-10
得票数 0
2
回答
pyspark streaming DStreams to
kafka
主题
pyspark
、
apache-kafka
、
kafka-consumer-api
、
kafka-producer-api
简单地说,有没有可能将DStream流式传输到
Kafka
主题? 我有火花流作业,它做了所有的
数据处理
,现在我想把数据推送到卡夫卡主题。在pyspark中可以做到这一点吗?
浏览 1
提问于2018-06-08
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券