腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
flink
中
的
链式
运算符
中
分配
负载
、
我有一个带有单个分片
的
输入运动流。我使用map函数创建了一个简单
的
应用程序,但是环境级别的并行度为8。使用线程分析器,当我检查创建
的
线程时,只有一个线程对于map函数和源代码是活动
的
(如文档中提到
的
查询)。我意识到这是因为我
在
环境级别设置了并行性。
在
使用map函数之后,有没有办法在所有为map函数创建
的
并行实例之间
分配
负载
?
浏览 10
提问于2020-02-17
得票数 0
1
回答
Apache :逐步执行
、
由于性能测量,我想逐步执行为
Flink
编写
的
Scala程序。
在
每个运营商之后打电话给env.execute()是正确
的
方法吗?或者是
在
每次操作之后写信给/dev/null,即调用counts.writeAsText("file:///home/username/dev/null", WriteMode.OVERWRITE),然后调用env.execute()是一个更好
的
选择?
Fli
浏览 2
提问于2015-11-13
得票数 3
回答已采纳
1
回答
Flink
,
在
使用多个Kafka源时,如何正确设置并行性?
、
我仍然不能清楚地理解并行性,比方说,我们有一个
flink
集群,它有足够
的
插槽。
在
我们
的
flink
工作
中
,我们从3个不同
的
kafka集群中使用3个kafka主题,每个主题有10个分区。如果我们将并行性设置为10,那么就会使用10个槽,这意味着,根据我
的
理解,10个线程对吗?如果这10个线程“连接”到topic_1,那么就没有线程读取topic_2和topic_3。如果我们将并行性设置为30,那么就有30个线程,但这30个线程是否足够聪明,它们
中<
浏览 0
提问于2019-03-13
得票数 12
回答已采纳
1
回答
在
Flink
1.14.0
中
为特定任务管理器指定插槽共享组
、
我正在尝试
Flink
1.14
中
的
细粒度资源管理特性,希望它能够为某些TaskManagers
分配
特定
的
运算符
。按照
中
的
示例代码,我现在可以定义我想要
的
任务共享组(使用setExternalResource),但我没有看到任何选项来“
分配
”具有此“外部资源”功能
的
TaskManager工作者实例。遵循
中
基于GPU
的
示例,如何确保
Flink
“知道”
浏览 1
提问于2021-11-09
得票数 0
回答已采纳
1
回答
同一Kafka主题
的
多个
Flink
管道
、
我们不想配置我们
的
Flink
流水线和集群来始终支持我们可以拥有的最大
负载
,我们希望根据
负载
动态扩展。如果我们使用常规
的
Kafka用户,那么就像添加一个用户一样简单(假设我们有足够
的
Kafka分区),并且Kafka将在所有用户之间重新
分配
主题分区。
Flink
Kafka消费者自己管理分区
分配
和偏移量,这允许只有一次语义(我们不需要它)。缺点是单个
Flink
作业总是使用所有的主题分区。我们认为我们可以创建另一个
F
浏览 27
提问于2019-11-14
得票数 1
2
回答
在任务管理器之间均匀
分配
Flink
运算符
、
我
在
一个由15台机器组成
的
裸机集群上制作了一个
Flink
流应用程序
的
原型。我使用
的
是yarn-mode,有90个任务槽(15x6)。 该应用程序从单个Kafka主题读取数据。Kafka主题有15个分区,因此我也将源
运算符
的
并行度设置为15。然而,我发现
Flink
在
某些情况下会将2-4个使用者任务实例
分配
给同一个任务管理器。这会导致某些节点变得网络受限( Kafka主题服务于大量数据,而机器只有1G网卡)和整个数据流<
浏览 0
提问于2018-08-10
得票数 2
1
回答
如何在
Flink
Table API中将uid添加到操作符?
、
正如文档强烈推荐
的
那样,我想将uids添加到
Flink
中
的
运算符
中
,以实现保存操作
的
目的。我
的
工作使用Table API。我
在
文档
中
没有找到如何使用SQL查询将uids添加到
运算符
。我
的
代码看起来像这样:StreamTableEnvironment tEnv = TableEnvironment.getT
浏览 0
提问于2019-04-02
得票数 1
1
回答
什么是
Flink
的
操作员?操作符状态和键状态有何不同?
据我理解,
Flink
中
的
运算符
有源
运算符
、变换
运算符
等。对于
Flink
中
的
运算符
,我
的
理解是否正确?
在
操作符状态
中
,
Flink
是为每个作业/任务维护每个操作符
的
状态(map()、or ()等)还是维护一个完整作业/任务
的
状态?另外,如果我
的
作业提交了多个并行性,那么每个槽会
浏览 0
提问于2019-07-22
得票数 2
回答已采纳
1
回答
什么是Apache
Flink
中
的
SlotSharingGroup?
参考:有人能更详细地解释一下吗?
浏览 4
提问于2018-06-07
得票数 3
1
回答
Apache依赖于EventTime事件
的
时间戳
分配
。
我是apache
的
新手,并试图了解EventTime和窗口
的
概念是如何由
flink
处理
的
。下面是我
的
设想:现在我运行流处理作业,它将上面的3个字段读入元组.。Time.milliseconds(4000))) .reduce((x,y) -&g
浏览 1
提问于2021-12-16
得票数 0
2
回答
命名
Flink
运算符
、
、
我正在使用
Flink
v.1.4.0。 我希望能够命名
Flink
UI
中
的
操作符。我明白,要做到这一点,我所需要
的
只是
在
DataSet或DataStream上使用DataSet方法。是DataSet/DataStream
的
密钥吗?或者是元素类型?据我了解,如果我应用与函数被应用
的
元素具有相同返回类型
的
MapFunction,
运算符
将保持不变,但注意到如果我应用FlatMapFunction或KeyBy或Gr
浏览 1
提问于2018-03-02
得票数 3
回答已采纳
1
回答
Flink
再平衡与链策略
、
背景是
在
重新平衡推荐
的
实践之前设置链接策略,还是
Flink
在
重新平衡之后自动允许多线程转换
分配
?
浏览 3
提问于2020-04-20
得票数 0
回答已采纳
1
回答
Flink
如何将DAG节点
分配
给不同
的
任务槽?
、
阅读
Flink
教程示例时,我想知道
Flink
如何将DAG节点
分配
给
Flink
集群
中
的
不同任务槽。任何指针都将非常受欢迎。
浏览 37
提问于2019-02-14
得票数 0
1
回答
理解Apache仪表板
的
输出
我试图理解Apache仪表板显示
的
"Bytes接收/发送“意味着什么。对于某些上下文,CSV文件托管
在
HDFS服务器上,我正在将结果写入我
的
计算机上
的
本地TXT文件。
Flink
也
在
我
的
机器上本地运行。考虑到这一点,"Bytes server“似乎意味着"Bytes从HDFS服务器发送到我
的
机器”,而"Bytes接收“似乎意味着"Bytes从我
的
机器发送到HDFS服务器”。,这
浏览 1
提问于2019-05-19
得票数 1
回答已采纳
1
回答
降低操作员并行度对作业性能
的
影响
我开始想知道
在
flink
作业
中
减少特定操作符
的
并行度
的
性能相关
的
用例是什么。我理解所有的技术细节,即并行性如何与子任务和插槽
的
数量等相关。让我们设想一个有三个任务
的
作业,即源任务、代理任务和->任务 例如,如果我将
flink
配置为使用32个插槽,那么当我将相同
的
并行度
分配
给所有3个任务时,性能会有什么不同。32与
分配
源减少了10
的
并行度?我
的</em
浏览 16
提问于2020-01-16
得票数 0
2
回答
Flink
1.12.x DataSet ->
Flink
1.14.x DataStream
、
、
我正在尝试从
Flink
1.12.x DataSet api迁移到
Flink
1.14.x DataStream api。mapPartition
在
Flink
DataStream
中
不可用。我们
的
代码使用
Flink
1.12.x DataSet .collect out.collect(...); // Collect processed data ---> (2)
浏览 9
提问于2022-02-09
得票数 0
1
回答
Flink
自动生成
的
UID已被禁用,但未将UID或散列
分配
给
运算符
分区
使用最新
的
flink
版本1.9.1,并设置:我已经为我使用
的
所有操作符提供了uid(过滤器、平面地图、连接),但是当我运行时会得到以下异常: 操作符分区指的是我使用
的
keyBy<e
浏览 1
提问于2020-01-13
得票数 0
3
回答
Flink
自定义分区函数
、
、
、
我
在
DataSet应用程序接口
的
Flink
上使用Scala。我想跨节点对数据进行重新分区。Spark有一个功能,可以让用户使用给定
的
numberOfPartitions参数(link)重新划分数据,但我相信
Flink
不支持这种功能。因此,我想通过实现一个自定义分区函数来实现这一点。Double“是二进制
的
(1或-1),所以我想根据SparceVector
的
长度对数据进行分区。key.size % numPartitions} 我调用这个自定义分区,如下所
浏览 33
提问于2019-01-15
得票数 5
1
回答
Flink
如何保证
运算符
之间
的
数据顺序?
、
、
在
流媒体系统
中
,数据
的
排序是一个很大
的
问题。 我们知道,
在
flink
中
,对数据
的
处理是无序
的
,是使用窗口和水印。 但是,在内部
flink
中
,
在
操作符之间,如何保证数据
的
有序性?
flink
能否确保先处理高级数据? 或者在
运算符
中
,数据
的
顺序打乱了
浏览 265
提问于2020-09-22
得票数 0
回答已采纳
1
回答
在
Flink
中
设置适当
的
算子并行性
的
直觉
、
、
、
我
的
问题是,对于固定集群设置
中
的
flink
作业
中
的
操作符,了解一个很好
的
并行性选择。假设我们有一个
flink
作业DAG,其中包含map和reduce类型
的
操作符,它们之间有流水线边(没有阻塞边)。
Flink
允许用户为单个操作符设置并行性。我通常为每个操作符设置M*C并行。但从性能角度(例如执行时间)来看,这是最好
的
选择吗?我们能利用
运算符
的
属性来做出更好
的
浏览 3
提问于2022-05-23
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券