腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
以
连续
方式
将
数据
从
自定义
源
写入
flink
、
、
、
在一些参与者中,我想从
Flink
实例化一个StreamExecutionEnvironment并处理传入的消息。因此,我编写了一个
自定义
源
类来扩展RichSourceFunction类。一切正常,除了一件事:我不知道如何发送
数据
到我的
Flink
扩展。Override run = false;} 所以我想从外部调用FlinkExtension类中的sendData方法,
以
连续
的
方式
浏览 5
提问于2017-07-31
得票数 1
回答已采纳
1
回答
Apache
Flink
-如何对齐
Flink
和Kafka切分
、
、
我正在为一个大容量流用例(每秒数以千万计的事件)开发一个DataStream-based
Flink
应用程序。这些
数据
是
从
卡夫卡主题中消耗的,并且已经根据特定的键进行了切分。我的意图是在
Flink
端创建特定于键的状态,
以
运行
自定义
分析。我无法解决的主要问题是,如何创建键控状态,而不对keyBy()强加的传入
数据
进行重新配置。我可以保证
Flink
作业的最大并行性
将
小于或等于
源
Kafka主题中的分区数,因此逻辑上没有必要
浏览 4
提问于2022-08-08
得票数 2
回答已采纳
1
回答
如何在apache流中读取关系
数据
库中的
数据
、
、
、
如何使用
自定义
数据
源
从
关系
数据
库读取
数据
。我是新来的
flink
流媒体。在添加新的
自定义
数据
源
时,我面临着问题。因此,请帮助我添加
自定义
数据
源
和
从
源
数据
库中
连续
读取
数据
。
浏览 2
提问于2018-01-09
得票数 1
回答已采纳
1
回答
理解Apache仪表板的输出
对于某些上下文,CSV文件托管在HDFS服务器上,我正在
将
结果
写入
我的计算机上的本地TXT文件。
Flink
也在我的机器上本地运行。考虑到这一点,"Bytes server“似乎意味着"Bytes
从
HDFS服务器发送到我的机器”,而"Bytes接收“似乎意味着"Bytes
从
我的机器发送到HDFS服务器”。奇怪的是,连接在过滤前两个
数据
集完成之前就开始了。,这是预期的行为吗?如果是的话,为什么?下面是我关于正在发生的事情的一些上下文的执行计
浏览 1
提问于2019-05-19
得票数 1
回答已采纳
1
回答
Flink
-使用JdbcDynamicTableSource对JDBC
数据
库进行
连续
查询。
、
、
、
我正在使用
Flink
从
postgresql
数据
库中读取
数据
,该
数据
库经常使用新的
数据
进行更新。目前,我可以使用
Flink
的从这个
数据
库进行一次查询.我想在这个
数据
库上运行一个
连续
查询,但是由于这个sql
源
不是一个无限制的输入,所以我的查询只运行一次并停止。据我所知,我可以:
以
一种强力的
方式
重复运行这些查询,可能使用。使用,因为
连续
查询是在动
浏览 6
提问于2020-11-24
得票数 0
回答已采纳
1
回答
Flink
可以在非动态表上运行
连续
查询吗?
、
我希望使用
Flink
SQL作为多个不同服务上的物化视图。例如,
从
MySQL & Redis & RPC服务读取
数据
,将它们连接在一起,然后更新存储在PostgreSQL中的结果表。如果“通知”包含
源
表中的所有信息,那么我可以只使用动态表。但是,
源
表中的
数据
太大,无法将它们全部存储在动态表中,这将是一种浪费。所以最好的方法是:
Flink
读取输入中的通知,而不是
从
内存中更新和查询动态表,
Flink
查询外部服务
以
浏览 5
提问于2020-10-27
得票数 1
1
回答
如何在
写入
apache中的
自定义
接收器之前缓冲记录
、
、
我对
Flink
相当陌生,在技术用例方面需要一些帮助。我有一个在GKE上运行的
flink
应用程序,并使用
自定义
接收器
将
记录(
从
Kafka
源
)
写入
BigQuery。我可以
将
记录
写入
BigQuery,而不会出现任何问题。目前,记录被一个接一个地
写入
接收器中,因此每个kafka消息都会得到自己对BigQuery的插入api调用,这并不理想,因为我们需要执行批量插入,并且单独插入每个记录
将
非常昂
浏览 5
提问于2022-10-18
得票数 2
回答已采纳
2
回答
如何在
Flink
转换中更新配置?
、
、
、
、
给定一个
Flink
流作业,该作业
将
map()操作应用于流。
将
KafkaSourcewait挂起,直到管道耗尽(flush)trigger集群中的所有任务,
以
重新读取配置文件(c
浏览 13
提问于2022-10-11
得票数 0
1
回答
使用富链接InputFormat创建Elasticsearch的输入格式
、
、
我们使用的是Elasticsearch 6.8.4和
Flink
1.0.18。我们在elasticsearch中有一个带有1个分片和1个副本的索引,我想创建
自定义
输入格式,以便使用apache
Flink
dataset API读取和
写入
elasticsearch中的
数据
,并具有超过1个输入拆分,
以
实现更好的性能。根据我的理解,no.of并行度应该等于
数据
源
的分片/分区数量。然而,因为我们只存储少量的
数据
,所以我们
将
浏览 19
提问于2020-09-05
得票数 0
回答已采纳
1
回答
Flink
检查点/保存点类变量吗?
、
如果
Flink
应用程序在失败或更新后启动备份,那么类变量不是KeyedState或OperatorState的明显一部分吗?如果
Flink
应用程序被更新,会丢失currentMaxTimestamp中的值吗?还是在更新应用程序之前将其
写入
创建的保存点?真正的原因是我想要实现一个
自定义
水印生成器,如果
源
已经空闲太久,它将切换到生成水印时的处理时间。但是,我希望检测到,在基于类变量
将
类变量重置为原来的默认值(例如,我提供的链接中的示例中的Long.MIN_VALUE )更新或失败后,应用程序
浏览 6
提问于2019-12-19
得票数 1
回答已采纳
1
回答
如何使用带DataStream API批处理模式的Apache
Flink
1.12添加Kafka作为有界
源
我想使用Kafka source作为Apache
Flink
1.12的有界
数据
源
,我尝试使用FlinkKafkaConsumer连接器,但它给了我以下原因 原因: java.lang.IllegalStateException:检测到未绑定的
源
,并将“Execution.runtime-mode”设置为“BATCH”。此组合是不允许的,请在org.apache.
flink
.util.Preconditions.checkState(Preconditions.java:198) ~
flink</
浏览 0
提问于2021-01-14
得票数 1
1
回答
如何在多个
数据
中心上进行
flink
检查点/保存点备份
、
我有
flink
应用程序,将在DC-1 (
数据
中心1)的节点上运行,我们计划使用HDFS或AMAZON-S3备份保存点和检查点状态。我的组织中对HDFS和S3的支持是,它不会将
写入
DC-1的
数据
复制到DC-2 (他们正在做这件事,但时间线很长)。考虑到这一点,有没有一种方法可以让
flink
本身
以
某种
方式
将
flink
检查点/保存点
写入
两个DC?谢谢
浏览 18
提问于2021-11-22
得票数 0
1
回答
在运行时异常的情况下,如何在Apache
Flink
中手动重放函数中的元组?
、
、
、
Flink
中的类似方法是什么?
浏览 14
提问于2019-02-22
得票数 0
1
回答
以
JSON形式
将
数据
从
Flink
写入
文件
、
、
当我们试图使用writeAsCsv(path,writemode)方法
将
处理过的JSON
数据
从
Flink
写入
文件时,我们需要在没有发生的每个JSON之后插入逗号。我们使用Apache作为
Flink
的
数据
源
。Tuple5<String, String, String, String, String>> messageStream = env.addSource(new FlinkKafkaConsumer08<>(
F
浏览 2
提问于2017-04-27
得票数 2
1
回答
流在Hadoop中的应用
、
、
、
、
在这个例子中,我确实看到他们创建了一个单独的应用程序(类似于流应用程序),该应用程序生成和消费
数据
,并在
数据
上应用模式匹配。现在,我知道,如果我使用Kafka,那么我需要两个应用程序;一个用于
将
数据
摄取到Kafka主题中,另一个用于消费Kafka主题的
数据
。参考
Flink
CEP的例子,我想知道流层(如Kafka/Kinesis)将如何发挥作用?? 如果像卡夫卡/动态)这样的流层出现在两者之间,会有什么好处/缺点?
浏览 2
提问于2016-06-13
得票数 0
1
回答
Apache :我如何创建并行的JDBC InputFormat?
有一个名为
flink
-jdbc的模块,它只支持基于非并行元组类型的JDBC InputFormat。为了
将
并行InputFormat用于JDBC,似乎需要通过实现接口org.apache.
flink
.core.io.InputSplit进行
自定义
。因此,在我的例子中,如何
自定义
实现JdbcInputSplit
以
从
数据
库并行查询
数据
?
浏览 0
提问于2016-01-23
得票数 3
回答已采纳
2
回答
如何处理(Apache )高IO瓶颈?
、
、
、
、
由于直接运行程序实现非常简单(它将整个输入集读入内存),它将无法读取和输出这些大型文件(除非您为java vm进程分配了不太实际的大量内存);因此,我的问题是:“像
flink
/spark/云
数据
流这样的生产运行程序如何处理这个-假设他们不只是尝试
将
整个文件/dataset放到内存中吗?”-。 我预计生产运行程序的实现需要“在部件或批中”工作(比如读取/处理/输出部件),以避免在任何特定时间点将庞大的
数据
集放入内存中。一般化,请注意这也适用于其他输入/输出机制,例如
浏览 2
提问于2021-07-01
得票数 0
回答已采纳
1
回答
Flink
流水线中不可并行任务与高内存需求的集成
我正在使用纱线集群中的
Flink
来使用各种
源
和接收器处理
数据
。在拓扑中的某个点,有一个操作不能并行化,而且需要访问大量内存。实际上,我在这个步骤中使用的API需要以数组形式输入。有没有一种直接的
方式
将
这个任务整合到我的
Flink
管道中? 我在中读到collect()函数不应该用于大型
数据
集。我认为,
将
数据
集收集到一个列表中,然后数组并不是并行的,这不是我目前最大的问题,但是您是否仍然愿意将上面我所称的input
写入</em
浏览 4
提问于2015-12-08
得票数 1
回答已采纳
2
回答
Flink
运算符中的内存查找
我有一个流收集和处理的
Flink
应用程序。该应用程序由Kafka作为事件
源
、协同映射函数和Kafka接收器组成,如下图所示:我想用CSV文件中的一些字段丰富Kafka输入的流。潜在的解决方案:广播丰富的
数据
,并连接来自卡夫卡的事件流,基于某种逻辑。 是否有更好的
浏览 1
提问于2022-02-19
得票数 0
3
回答
Apache
Flink
-异步刷新Hashmap
、
我正在使用Scala API开发一个Apache
Flink
应用程序(我是一个使用这项技术的新手)。 我正在使用hashmap来存储来自
数据
库的一些值,并且我需要每隔一小时刷新这些值。
浏览 25
提问于2019-03-01
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Flink 支持哪些数据源和数据接收器?
flink用例
如何使用flink-connector-postgres-cdc将Kafka写数据到PostgreSQL数据库动态表中
当 TiDB 与 Flink 相结合:高效、易用的实时数仓
字节跳动基于Flink的MQ-Hive实时数据集成
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券