腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Kafka
:
有效地
将
窗口
聚合
加入到
事件
中
我们希望使用
Kafka
Streams来创建和维护
聚合
,然后创建具有原始事务字段和
聚合
的传入事务的增强版本。此增强的记录由下游规则系统处理。TimeWindows twoDayHopping TimeWindows.of(TimeUnit.DAYS.toMillis(2)) }) .through(Serdes.String(),metricsSerde,da
浏览 3
提问于2017-06-19
得票数 0
回答已采纳
1
回答
Kafka
stream -为changelog定义保留策略
、
我使用
Kafka
Streams进行TimeWindow的一些
聚合
。我只对每个
窗口
的最终结果感兴趣,所以我使用了.suppress()特性,该特性为其状态创建了一个changelog主题。此changelog主题的保留策略配置被定义为"compact“,据我所知,它将至少保留过去每个键的最后一个
事件
。 我的应用程序
中
的问题是密钥经常改变。这意味着主题
将
无限增长(每个
窗口
都将带来永远不会删除的新关键字)。 因为
聚合
是按
窗口
进行
浏览 33
提问于2019-02-12
得票数 0
回答已采纳
1
回答
在
聚合
运行之前,我能加入由
Kafka
#
聚合
调用生成的KTable吗?
我有许多IOT设备,它们通过消息向
kafka
主题报告
事件
,并且我已经定义了一个
聚合
器来从这些
事件
中
更新设备状态。我想要做的是能够
将
输入流
加入到
聚合
器在
聚合
更新状态之前输出的KTable --也就是说,我想,比方说,
将
一个
事件
与当前状态进行比较,如果它们匹配某个谓词,则执行一些处理,然后更新状态。我尝试
将
输入流
加入到
由KTable生成的StreamsBuilder#
浏览 0
提问于2019-06-26
得票数 0
回答已采纳
1
回答
Flink:
将
窗口
集合附加到
事件
中
、
我们希望使用Flink来维护
窗口
聚合
,作为事务监视应用程序的一部分。它们将使用滑动
窗口
定义。例如:“过去5天的现金交易总额”。下面是我需要Flink应用程序做的工作: 1.通过读取历史
聚合
和构建windows 2来准备事务处理。对于每个新事务: a.用新的事务数据b更新
窗口
聚合
。找到与传入时间戳匹配的
窗口
,并将
聚合
值添加到事务c。通过RabbitMQ或
Kafka
接收器
将
增强的事务(原始字段+
聚合
)发
浏览 5
提问于2017-06-23
得票数 0
1
回答
Flink Windows -如何在新
事件
出现时立即发出中间结果?
、
、
我试图:从
Kafka
读取
事件
、小时
聚合
(sum、count等)。并且在新
事件
出现时立即将结果重新插入Cassandra,换句话说,在每个新
事件
上创建新记录或重新计算已经存在的记录,并立即将结果汇到Cassandra。但是任务在
窗口
间隔结束后(每1小时)
将
结果发送给Cassandra。我知道,它的工作如docs中所述: 与连续表上的其他
聚合
不同,
窗口
聚合
不会发出中间结果,而是只发出最终结果,即
窗口
末
浏览 11
提问于2022-09-26
得票数 0
回答已采纳
1
回答
Apache Flink -如何在启动时跳过除最新
窗口
之外的所有
窗口
在Flink
中
,我有一个带有键控
事件
流的Job (例如:每个键平均每天有10个
事件
)。它们被处理为基于
事件
时间的滑动
窗口
(例如:90天
窗口
大小和1天
窗口
滑动)。
事件
是从
Kafka
消费的,
Kafka
会持久化所有的
事件
历史(例如:最近3年)。 有时我想重新启动Flink:用于维护、bug处理等,或者使用已经包含
事件
历史的
Kafka
启动一个新的Flink实例。在这种情况
浏览 9
提问于2019-06-05
得票数 0
回答已采纳
1
回答
如何只获取一个
窗口
的最后一个
聚合
值?
、
、
我想
聚合
一个具有翻滚
窗口
的
Kafka
主题,并且只获得每个
窗口
的最后一个
聚合
值。 使用下面粘贴的代码,每次有新
事件
到达时,
聚合
值都会更新。因此,我得到的
聚合
值与传入
事件
的数量一样多。我想有一个主题,只有每个
窗口
的最后
聚合
值。有可能(使用ksqldb)实现这一点吗?
浏览 11
提问于2021-08-13
得票数 1
1
回答
Kafka
流:
窗口
时对旧数据的再处理
、
有一个
Kafka
流应用程序,它通过流连接执行
窗口
(使用原始
事件
时间,而不是挂钟时间),例如1天。如果打开这个拓扑,并从一开始就重新处理数据(就像在lambda风格的体系结构
中
那样),那么这个
窗口
会将旧数据保存在那里吗?使用
Kafka
Streams 2.5.0进行更新
浏览 6
提问于2022-01-09
得票数 0
1
回答
Kafka
流抑制功能,获取延迟超过宽限期的事务
我目前正在使用
Kafka
流式DSL抑制功能的日期
窗口
。我们可能会遇到这样一种情况,一些
事件
可能会很晚才发生,超过了宽限期。Apache flink确实提供了对这种非常晚的
事件
的控制,并想知道这种功能是否在流
中
可用。2)考虑到数百万
事件
流经系统,如何使用DSL- suppress
将
间歇
浏览 2
提问于2019-05-15
得票数 0
1
回答
Debezium能确保同一事务
中
的所有
事件
同时发布吗?
、
我开始探索使用变更数据捕获
将
遗留和商业应用程序(我不能修改)
中
的数据库变更转换为其他系统可以使用的
事件
。简化我的实际案例,假设
将
涉及两个表,一个是包含订单头详细信息的order,另一个是包含所请求的每个产品的详细信息的order_line。我目前的理解是,这两个表
中
的
事件
将
发布到两个不同的
kafka
主题中,我应该使用
kafka
-stream或ksql来
聚合
它们。我已经看到有不同的选项来定义
窗口
,该<
浏览 2
提问于2020-02-27
得票数 1
1
回答
Kafka
Streams SIiding
窗口
实现代码示例
、
、
我一直在尝试使用Streams DSL在
Kafka
中
实现滑动
窗口
,但我无法做到。有没有人能帮我举个代码例子。我想要使用滑动
窗口
方法
聚合
特定时间段的值。 我搜索了融合的博客,但没有代码
浏览 3
提问于2019-07-16
得票数 1
1
回答
Spark Streaming
Kafka
Stream批量执行
、
、
、
、
我目前正在实现一个从
Kafka
主题流式传输数据的应用程序。 使用应用程序只运行一次批处理是常见的场景吗?例如,一天结束时,收集主题中的所有数据,执行一些
聚合
和转换等操作?这意味着在使用spark-submit启动应用程序后,所有这些内容将在一个批处理
中
执行,然后应用程序将被关闭。或者,spark stream构建是为了以连续的批处理运行无休止的、永久的流数据吗?
浏览 1
提问于2018-11-29
得票数 3
0
回答
使用Spring Cloud Stream
Kafka
计算接收到的
事件
数据的
聚合
、
、
我刚刚开始使用Spring Cloud Stream
Kafka
。然后,计算出的
聚合
将
通过请求-响应层在UI中提供。我想知道Spring cloud stream和/或
Kafka
中
是否支持
聚合</em
浏览 5
提问于2017-01-06
得票数 0
1
回答
在火花结构化流中保留给定键的最后一行
、
、
类似于
Kafka
的日志压缩,有很多用例要求它只保留对给定键的最后更新,并使用结果(例如,用于连接数据)。----------------------------A | 15 | foobeedoo 我可能会
加入到
另一条溪流
中
最好不要浪费支持的
聚合
步骤。我想我需要一个具有反向顺序的dropDuplicates()函数。请注意,这个问题是关于结构化流的,
浏览 0
提问于2018-06-12
得票数 5
回答已采纳
1
回答
使用
kafka
作为
事件
存储来补充
事件
源
聚合
、
、
越来越多的文章
将
kafka
作为
事件
存储,并将其用于使用cqrs和
事件
源构建的应用程序
中
。如何在
kafka
(作为
事件
存储库)查询某个
聚合
的
事件
,以完成写入端的操作?
浏览 1
提问于2016-10-15
得票数 4
1
回答
处理和通知flink进程
窗口
中的无(零)
事件
、
我们正在构建一个flink用例,其中我们正在使用
kafka
主题,并根据平均、最大、最小阈值执行
聚合
和生成警报。当滚动
事件
时间Windows中有0个
事件
时,我们还需要为每个键发出通知。Queryable :在每个进程
窗口
函数中保存密钥。从外部应用程序查询状态,并在20分钟时间间隔过期后丢失密钥时发出警报。我们看到Queryable状态特性在未来将被废弃。使用处理时间Windows :如果下游应用程序
将
实时发送
事件
,则使用处理时间而不是
事件
时间将是一种选择
浏览 6
提问于2022-05-10
得票数 0
1
回答
如何仅在
窗口
完成时才
将
窗口
聚合
结果发送到输出主题?
、
、
、
在进行
窗口
聚合
时,我面临一个问题。我希望执行每个键的值之和,结果只有在
窗口
完成时才发送到输出主题。问题是“输入”主题中的每个
事件
都会产生一个
事件
到“输出”主题。只有在
窗口
完成后,我才希望
将
事件
发布到输出主题。例如,如果
窗口
为1分钟,则每分钟每键发送一个
事件
。:任务1_
中
的异常未能刷新状态存储KSTREAM-还原状态存储-0000000003,原因是: java.lang.ClassCastExcep
浏览 3
提问于2019-12-10
得票数 1
1
回答
追加模式
中
结构化流式
窗口
聚集中的
事件
的排序
、
、
当前设置:我有一个来自
kafka
的数据流。每条消息都有一个
事件
时间。我正在使用这些
事件
时间来进行
窗口
聚合
,并使用水印规则来丢弃状态。输出模式为追加模式。目的:我需要让
窗口
聚合
在到期时按顺序排列,这样我就可以按
事件
窗口
的顺序处理这些
事件
。我希望
窗口
状态会因为我的滑动
窗口
而依次过期。2020-06-11 08:
浏览 1
提问于2020-05-06
得票数 2
1
回答
将
Axon
事件
发布到
Kafka
主题
我想通过我的
聚合
事件
处理程序之一
将
事件
发布到axon
Kafka
主题,因为我正在使用
kafka
作为我的
事件
总线。这样做的正确方法是什么?应该直接
将
消息推送到主题,还是可以使用AggregateLifecycle#apply(event)?我有多个
事件
从我的
聚合
中发布,通过其中一个
事件
处理程序,我想发布另一个
事件
。
浏览 13
提问于2020-07-24
得票数 0
2
回答
事件
源是否适用于批处理输入?
、
、
、
我有一个用例,在这个用例
中
,应用程序的输入是成批的XML文件。例如,每晚的一批银行交易。我试图看看是否可以使用
事件
源来创建
事件
日志。使用分布式日志机制(如
Kafka
)的
事件
来源是否是基于批/文件的输入的有效方法?
将
事件
日志写入<em
浏览 3
提问于2017-07-07
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
系统解读Kafka的流和表(一):开篇
Uber如何为近实时特性构建可伸缩流管道?
深入解读Flink窗口的应用与实现
弃用 Lambda,Twitter 启用 Kafka 和数据流新架构
使用Kafka Streams构建事件溯源系统的经验分享
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券