腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
使用
flink
打印
文件
中
的
总
行数
、
我正在
使用
类似于
的
源函数从parquet
中
读取代码行,但是当我尝试计算正在处理
的
行数
时,尽管作业已经完成,但什么也没有
打印
出来: val env: StreamExecutionEnvironment
浏览 43
提问于2021-03-10
得票数 1
回答已采纳
2
回答
flink
不要在std输出
中
打印
对象
我正在用
flink
做一个简单
的
程序,但是它不会在std输出
中
打印
任何字符串。我尝试过在流上
使用
print()方法,对结果
使用
减函数和后置print()方法。.*/ env.execute("
Flink
Streaming Java Quickstart Mio"); } return objec
浏览 4
提问于2019-10-02
得票数 0
1
回答
使用
的
任务管理器托管内存显示为零。
、
我正在尝试调优
使用
FlinkOperator部署
的
flink
作业
的
内存配置。下面是我正在
使用
的
内存设置。如本文档所述,我只配置了全部内存。taskmanager.memory.task.off-heap.size: "500m"当作业开始处理时,指标显示
flink
_taskmanager_Status_
Flink
_Me
浏览 12
提问于2022-12-04
得票数 1
1
回答
Apache
Flink
:
文件
STDOUT在TaskExecutor上不可用
、
、
、
我从官方
的
flink
存储库
使用
以下docker-compose.yml启动了
flink
。我只添加了到外部hadoop网络
的
连接。version: "2.1" hadoop: name:
flink
_hadoop jobmanager:image:
flink
:1.7.1-hadoop27-scala_2.11 container_name:
f
浏览 1293
提问于2019-01-04
得票数 2
回答已采纳
1
回答
如何
在
Flink
SQL中将TZ日期时间转换为时间戳(3)
、
如何
在FLinkSQLv1.13
中
将带有DateTime
的
TZ转换为时间戳(3)?//returns NULL, which is silly because this was the result from the 2nd example 它不接受T and Z,但是“干净”日期
的
转换结果有
浏览 22
提问于2021-12-16
得票数 0
1
回答
批量统计文本字符串
、
、
、
我一直在寻找,我能够找到在txt
文件
中计算
行数
的
方法,但是有没有一种方法可以对特定
的
文本字符串进行计数,然后将该值放入日志
文件
中
?
浏览 3
提问于2012-10-23
得票数 0
回答已采纳
1
回答
如何
在独立
flink
集群中提交
flink
作业时指定与守护进程日志
文件
不同
的
日志
文件
、
当我启动一个
flink
独立集群时,它会在conf/log4j.properties
文件
中提到
的
文件
中
记录守护进程日志,当我在该集群中提交
flink
作业时,它会
使用
相同
的
属性
文件
来记录应用程序日志并在任务管理器上写入相同
的
日志
文件
我希望为在
flink
独立集群中提交
的
每个应用程序都有单独
的
日志
文件
。有什么办法可以做到这一点
浏览 1
提问于2016-11-08
得票数 1
1
回答
如何
打开TwitterSource
的
控制台日志记录
、
基于
Flink
Scala快速入门,我已经创建了一个
使用
org.apache.
flink
.streaming.connectors.twitter.TwitterSource
的
示例作业。我
使用
本地流作业管理器/start-local-streaming.sh,并
使用
~/
flink
-0.10.0/bin/
flink
run target/quickstart-0.1.jar启动作业 在TwitterSou
浏览 0
提问于2015-12-04
得票数 2
1
回答
Flink
在日志
文件
夹中生成输出
文件
,但不
打印
任何内容
我
使用
Flink
local模式,并行度= 1。在我
的
Flink
代码
中
,我尝试
使用
以下命令
打印
传入
的
源代码:ds.print(); 在我本地
的
Flink
_dir/ xxx.out
文件
夹
中
,我可以看到已经创建了一个日志
文件
,但是没有任何内容
打
浏览 8
提问于2017-07-11
得票数 2
回答已采纳
2
回答
使用
随机行顺序测试csv
文件
相等(Junit)
、
、
、
、
我正在
使用
Apache开发一个项目,并
使用
junit测试我
的
操作员。但是,我面临一个问题:由于并行性,
flink
将以“随机”行顺序写入其输出csv
文件
,因此我很难断言输出
文件
与
使用
Junit
的
预期输出
文件
相等。性能不是一个问题,因为我们谈论
的
是小
文件
(<100行),而且只用于测试。 有什么简单
的
解决办法吗?
浏览 4
提问于2015-04-08
得票数 5
回答已采纳
1
回答
命令以查看Slackware
中
已安装
的
全部软件包?
、
、
我需要显示总数,但我只找到命令列出已安装
的
包,如下所示: ls -l /var/log/packages/
浏览 0
提问于2017-02-15
得票数 2
回答已采纳
1
回答
为什么
Flink
SocketTextStreamWordCount不能工作?
、
我能够像预期
的
那样运行WordCount程序。但是当我运行SocketTextWordCount时,我没有得到任何结果。我通过nc发送数据(双方
的
本地主机:9999) 编辑-当我将结果改为文本
文件
时,没有问题。因此,问题似乎在于,counts.print()没有正确地写入我运行示例
的
控制台
的
标准输出。
浏览 0
提问于2016-05-16
得票数 3
回答已采纳
1
回答
Apache作业没有安排在Kubernetes
中
的
多个TaskManagers上(副本)
、
、
、
我有一个简单
的
Flink
作业,它从ActiveMQ源代码和接收器读取到数据库和
打印
。我
使用
2 TaskManagers在Kubernetes中部署作业,每个任务
的
Task Slots为10 (taskmanager.numberOfTaskSlots: 10)。我配置
的
并行性超过了可用
的
总
TaskSlots (本例
中
为10 )。当我看到
Flink
Dashboard时,我看到这个作业只在一个TaskManager<e
浏览 2
提问于2020-03-06
得票数 2
2
回答
如何
从Mysql数据库创建DataStreamSource?
、
、
、
、
我在运行
flink
作业时遇到了问题,
flink
作业基本上是对mysql数据库运行查询,然后尝试创建一个必须从不同作业访问
的
临时视图。resultStream = tableEnv.toDataStream(resultTable); env.execute(); 我对
Flink
非常陌生,目前我正在
使用
为所有这些提供
的
API,但我不知道自己做错了什么。在我看来,通过在工作结束时
打印
结果来测试这个过程似乎是直截了
浏览 36
提问于2022-02-14
得票数 0
回答已采纳
1
回答
缓存和持久化数据集
、
我想多次
使用
org.apache.
flink
.api.scala.DataSet对象: 等。对于这些操作,
Flink
完全重新计算DataSet
的
值,而不是缓存它。我找不到像在Spark
中
那样
的
缓存()或持久化()函数。这确实对我
的
应用程序产生了巨大
的
影响,我
的
应用程序有~1.000.0
浏览 2
提问于2017-09-15
得票数 2
回答已采纳
1
回答
如何
查询
flink
的
可查询状态
、
、
我正在
使用
flink
1.8.0,并试图查询我
的
工作状态。ValueStateDescriptor("myState", Types.CASE_CLASS[Foo])根据,我
使用
了端口9067,这是默认端口,我
的
客户端:val jo
浏览 0
提问于2019-06-25
得票数 0
回答已采纳
1
回答
EMR群集上
的
Flink
作业“超出GC开销限制”
、
、
EMR-
Flink
作业显示错误“超出GC开销限制错误”。EMR群集
使用
默认EMR角色在VPC内创建。Hadoop和
Flink
选项是从高级选项中选择
的
(我尝试了不同版本
的
Hadoop和
Flink
) Step方法用于提交带有参数集
的
自定义jar。作业从Aurora DB读取数据 问题:当从Aurora DB读取请求
的
行数
较少时,作业会成功执行,但随着
行数
增加到数百万,我开始收到"GC开销限制超过错误“。我正在为
浏览 44
提问于2020-01-21
得票数 0
回答已采纳
1
回答
Flink
- kubernetes上部署
flink
应用程序
的
多个实例
、
、
、
、
我需要在K8上部署
Flink
应用程序
的
帮助 我们有3个源,将以SQL查询
的
形式发送触发条件。
总
查询数约为3-6k,有效地增加了
flink
实例
的
负载。由于大量
的
查询,我们决定为每个源创建多个
flink
应用实例。因此,一个
flink
实例实际上只能执行~1-2K个查询。上部署这些实例 问题: a)可以
使用
迷你集群(内置)部署独立
的
flink
jar吗?b)如果K8
的
一个
浏览 31
提问于2020-08-24
得票数 1
1
回答
用实例建立kafka
flink
连接器项目
、
由于我是卡夫卡
flink
连接器
的
新手,请帮助我提出一些简单
的
示例程序,其中kafka在一个主题中写作,
flink
侦听它,并与pom.xml一起显示值。
浏览 4
提问于2020-01-19
得票数 0
回答已采纳
1
回答
Flink
文件
系统支持
博士说“一个不完整
的
列表”。我在哪里可以找到一个完整
的
?
浏览 5
提问于2018-08-08
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
python如何读取CSV文件中的特定行数据
Flink CDC 如何捕获数据库中的数据变化?
如何确保打印文件的真实——几种常用防伪打印技术介绍
使用Python批量筛选上千个Excel文件中的某一行数据并另存为新Excel文件(下篇)
定制橱柜家具中CAD打印命令使用讲解,以及PDF文件和开门方向讲解
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券