腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(548)
视频
沙龙
1
回答
Flink
推断
kafka
主题
DDL
、
、
有没有办法在
Flink
中自动
推断
Kafka
主题
DDL
而不需要手动CREATE TABLE查询,就像spark的情况一样。
浏览 21
提问于2021-11-16
得票数 1
1
回答
Flink
表API:在SQL执行中按组抛出org.apache.
flink
.table.api.TableException
、
、
、
我有一个非常简化的用例:我想使用Apache (1.11)从一个
Kafka
主题
读取数据(让我们称之为source_topic),计算其中的一个属性(称为b),并将结果写入另一个
Kafka
主题
(result_topic-1.11.2/lib/
flink
-sql-connector-
kafka
_2.11-1.11.2.jar") CREATE TA
浏览 2
提问于2020-11-16
得票数 3
回答已采纳
1
回答
Flink
Table to DataStream:如何访问列名?
、
、
我想使用
Flink
SQL将
Kafka
主题
消费到表中,然后将其转换回DataStream。这是SOURCE_
DDL
CREATE TABLE
kafka
_source ( datetime TIMESTAMP(3), 'properties.group.id' = 'test-group',
浏览 73
提问于2021-03-30
得票数 0
回答已采纳
1
回答
TimeoutException:当我尝试从
kafka
读取到
flink
时,在确定分区位置之前,60000ms的超时已过期
、
、
、
我正在尝试读取
Kafka
主题
中的记录,该
主题
是由
kafka
connect jdbc源连接器生成的,以下是连接器配置: "name": "customers", "poll.interval.ms
kafka
读取
主题
的简单示例,并使用以下python代码再次将数据写入
kafka
: from pyflink.datastream import StreamExecution
浏览 670
提问于2021-02-01
得票数 0
回答已采纳
1
回答
如何在
Flink
SQL中反序列化Avro枚举类型?
、
、
、
我有一个带有以下Avro IDL的
Kafka
主题
,并注册到Schema Registry。myEntryType = "Type1"; MyEntry entry; } 为了阅读这个
主题
,我定义了以下
DDL
: CREATE TABLE my_table `entry` ROW(`myEntryType` ROW(???))(KafkaFetcher.java:1
浏览 190
提问于2021-10-12
得票数 1
回答已采纳
1
回答
PyFlink 14.2 -表API语义精确一次
、
、
、
为了说明起见,这是关于已定义的
kafka
接收器
主题
的输出: 通过尝试找出我阅读过的任何
flink
文档中的问题(此外,引用我可以在这个
主题
上找到的堆栈溢出问题(主要讨论Java实现).不用说,还没有解决。' """ t_env.execute_
浏览 6
提问于2022-03-14
得票数 0
2
回答
使用
Kafka
作为
Flink
的输入源是性能瓶颈吗?
、
、
Flink
允许阅读
Kafka
主题
,这是性能瓶颈使
Flink
整体速度变慢吗?
浏览 3
提问于2018-11-01
得票数 0
1
回答
Flink
,在使用多个
Kafka
源时,如何正确设置并行性?
、
我仍然不能清楚地理解并行性,比方说,我们有一个
flink
集群,它有足够的插槽。在我们的
flink
工作中,我们从3个不同的
kafka
集群中使用3个
kafka
主题
,每个
主题
有10个分区。
浏览 0
提问于2019-03-13
得票数 12
回答已采纳
1
回答
Kafka
身份验证
、
、
、
、
我只看过Pyflink表API中不包含连接建立()中的身份验证细节的
kafka
连接示例,即源表连接: CREATE TABLE source_table/lib_py/
kafka
-clients-2.4.1.jar") env.add_jars("file:///opt/
flink
/lib_py/
flink
-connec
浏览 4
提问于2021-11-12
得票数 0
回答已采纳
1
回答
如何使用Spark在Apache Solr上构建聚合
、
、
我有一个要求建立聚合的数据,我们收到我们的Apache
Kafka
… 我有点不知道该走哪条技术路线…… 似乎人们看到的是标准的方式,一群Apache
Kafka
<-> Apache Spark <-> Solr Bitnami Data Platform 我找不到具体的例子说明这是如何工作的,但我也在问自己,是否有任何解决方案 Apache
Kafka
<->
Kafka
Connect Solr此外,可能聚合mit
Kafka
<->
Kafka
浏览 34
提问于2021-11-11
得票数 0
1
回答
Apache
Flink
中使用Java的通用协议缓冲区反序列化程序
、
、
、
场景: Apache
Flink
、
Kafka
、Protocol buffers data consumer。数据来源为协议缓冲区格式的
Kafka
主题
(多个
主题
: topic#1、topic#3、topic#3)。使用者是Apache
Flink
使用者。每个
主题
都有一个独特的协议定义。中开发一个通用的数据摄取作业,将
Kafka
中的数据摄取到数据库中。如何为Apache
Flink
实现一个通用的protobuf反序列化器?我正在寻找实现将
浏览 13
提问于2021-04-03
得票数 0
1
回答
如何从
flink
访问/读取
kafka
主题
数据?
、
我试图阅读卡夫卡数据从
flink
和我是新的卡夫卡和
flink
,我不知道如何连接他们。
浏览 4
提问于2017-02-01
得票数 0
回答已采纳
1
回答
如何从Hive Metastore获取
Flink
创建表
ddl
、
例如,我有一个
Flink
表,如WITH ( '
flink
.format'='raw', '
flink
.properties.bootstrap.server
浏览 6
提问于2022-05-07
得票数 0
1
回答
pyflink使用
kafka
_source_
ddl
发生错误
、
、
)
flink
-1.14.2zookeeper-3.7.0python 3.6.8- 760015705 ConsoleProducer- 31454
Kafka
cdn_connector_
ddl
.py
kafka
_source_
ddl
import
kafka
_sou
浏览 48
提问于2022-01-14
得票数 0
回答已采纳
1
回答
scala中的
Flink
Kafka
程序导致超时错误,org.apache.
kafka
.common.errors.TimeoutException:在60000 ms后更新元数据失败
、
我正在编写一个如下所示的
Flink
Kafka
集成程序,但是得到了
kafka
的超时错误:import org.apache.
flink
.streaming.connectors.
kafka
stream.addSink(kafkaProducer) }从
浏览 6
提问于2017-12-15
得票数 0
1
回答
FlinkKafkaConsumer无法从LZ4压缩
主题
中读取
、
我们有几个阅读卡夫卡
主题
的
flink
应用程序,它们工作得很好。但最近,我们向现有的
flink
作业添加了一个新
主题
,它在启动时立即开始失败,并出现以下根错误: ... 7 more 我发现这个
主题
具有lz4压缩,并猜测
flink
由于某种原因无法使用它。
flink
运行时版本是
浏览 5
提问于2020-07-31
得票数 1
回答已采纳
1
回答
同一
Kafka
主题
的多个
Flink
管道
、
背景时不时地,我们的
Flink
不能处理突发信息。如果我们使用常规的
Kafka
用户,那么就像添加一个用户一样简单(假设我们有足够的
Kafka
分区),并且
Kafka
将在所有用户之间重新分配
主题
分区。
Flink
Kafka
消费者自己管理分区分配和偏移量,这允许只有一次
浏览 27
提问于2019-11-14
得票数 1
1
回答
当源库在卡夫卡时,用
Flink
代替
Kafka
流来提高性能?
、
、
假设我有通过
Kafka
主题
输入的数据,并将输出数据发送给
Kafka
主题
,那么在什么情况下
Flink
能够比
Kafka
流更快地处理数据?至少说到花在消费和生产上的时间,我不会期望
Flink
比
Kafka
流更快。
浏览 3
提问于2022-08-09
得票数 0
2
回答
如何使用
Flink
独立集群上
Flink
作业中的两个Kerberos键(对于
Kafka
和Hadoop )?
、
、
、
、
问题 如果不可能,在
Kafka
和HD
浏览 0
提问于2018-05-02
得票数 5
回答已采纳
1
回答
使用Apache Spark/Apache
Flink
进行缩放
、
、
我的例子是消息,而不是流,但为了可伸缩性,我正在考虑将其插入Spark或
Flink
,但无法理解这些扩展:我的应用程序,当Spark/
Flink
的一部分读取了
Kafka
的一些数据,然后退出或继续阅读吗?那么,Spark/
Flink
将如何决定他们必须生成更多的我的应用程序实例来提高吞吐量呢? 谢谢!
浏览 4
提问于2017-09-20
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券