腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
使用
Python
的
Apache
Beam
ReadFromKafka
在
Flink
中
运行
,
但
没有
发布
的
消息
通过
、
、
、
我有一个
在
Minikube上
运行
的
本地集群。我
的
管道工作是用
python
编写
的
,是Kafka
的
基本
使用
者。我
的
管道如下所示: import
apache
_
beam
as
beam
"--runner=FlinkRunner", &
浏览 33
提问于2021-03-09
得票数 0
1
回答
基于
Apache
Beam
KafkaIO
python
SDK
的
Avro
消息
处理
、
、
我目前正在尝试以类似于以下示例KafkaIO
的
ByteDeserializer格式读取
消息
。我
的
测试设置如下: 选项1:配置为
使用
--runner=PortableRunner 选项2:启动本地
flink
作业服务器, docker run --net=host
apache
/
beam
_
flink
1.10_job_server:latest
发布
测试kafka avro
消息
流水线参数被定义为, pipeli
浏览 17
提问于2021-07-07
得票数 0
1
回答
ApacheBeam on FlinkRunner不读卡夫卡
、
、
我正在尝试
运行
由本地
Flink
集群支持
的
Apache
,以便
使用
卡夫卡主题,如中所述。由于我试图
在
Flink
上
运行
,我遵循了这个并执行了以下操作/
beam
_java_
浏览 1
提问于2020-08-30
得票数 0
回答已采纳
1
回答
在
Flink
集群中
使用
KafkaIO
ReadFromKafka
时找不到容器id
、
我有一个
Flink
集群(
在
minikube
中
运行
),它有一个worker池,
运行
Python
SDK 2.27.0,带有管道选项: options = PipelineOptions([
beam
的
KafkaIO变换。我
在
worker上遇到了无法
运行
管道
的
docker
的
问题,但是
在
通过
docker-in-docker (dind image)添加d
浏览 0
提问于2021-03-02
得票数 0
1
回答
Apache
容器码头问题(java.io.IOException:无法
运行
程序" Docker ":error=2,)
、
我正在
使用
Apache
处理Kafka流,方法是
运行
它们提供
的
Beam
容器。docker run --net=host
apache
/
beam
_
flink
1.13_job_server:latestfrom
apache
_
beam
.io.kafkaimport
ReadFromKafka</
浏览 1
提问于2021-07-15
得票数 1
1
回答
Apache
与KafkaConsume
、
、
、
我正在
使用
一个简单
的
Apache
管道,包括从一个无限制
的
Kafka主题中读取并打印出这些值。我有两种口味。这是
通过
Flink
运行
程序完成
的
。])这个程序
使用
from
apache
_
beam
.io.kafka import
ReadFromKafka
浏览 9
提问于2022-03-09
得票数 1
回答已采纳
1
回答
不能将KafkaRecord转换为[B ]
、
、
、
我试图
使用
Python
处理
Apache
提供
的
数据流,用于
Apache
和
Flink
运行
器。在
运行
Kafka 2.4.0和
Flink
1.8.3之后,我遵循以下步骤: ( 1)用
Flink
1.8转轮编译
运行
梁2.16。/gradlew :runners:
flink
:1.8:job-server:runShadow -PflinkMasterUrl=localhost:80
浏览 2
提问于2019-12-27
得票数 3
回答已采纳
1
回答
GRPC错误码头Mac流处理与
Python
,
Beam
和
Flink
、
、
、
、
更新:我仍然面临这个错误,即使我关闭了
Flink
和Kafka,这导致我相信这是一个连接问题docker run --net=host
apache
/
beam
_
flink
1.13_job_server:latest 这样做
浏览 4
提问于2021-07-14
得票数 0
2
回答
当我将environment_type设置为“`PROCESS`”时,
Beam
SDK线束仍然试图启动对接器
、
根据 "--environment_type=PROCESS", ]
浏览 18
提问于2022-06-02
得票数 1
回答已采纳
1
回答
使用
Beam
和PortableRunner与SSL连接到Kafka
、
、
、
下面有
使用
连接到kafka
的
代码。我知道
ReadFromKafka
转换是
在
java工具(坞容器)
中
运行
的
,但是我还
没有
弄清楚如何使ssl.truststore.location和ssl.keystore.location
在
SDK扣环境
中
可访问*,
beam
_java_sdk:latest' --其中
beam
_java_sdk:latest是一个基于
apache</e
浏览 9
提问于2021-02-01
得票数 1
1
回答
ReadFromKafka
卡在数据流束流加工
中
的
应用
、
、
、
、
我正在尝试
使用
Apache
和Dataflow从kafka主题中读取数据,将数据打印到控制台,最后将它们写到公共子主题中。但是它似乎被困在了
ReadFromKafka
函数
中
。卡夫卡主题中有很多数据,但是当它
运行
时,在这个过程
中
什么也不会发生。import
apache
_
beam
as
beam
from
apache
_
beam
.io.kafka import
浏览 1
提问于2021-11-30
得票数 4
1
回答
光束Kafka流输入,无打印或文本输出
、
、
我正在尝试
使用
direct runner来计算kafka
消息
密钥。 如果我将max_num_records =20放在
ReadFromKafka
中
,我可以看到打印或输出为文本
的
结果。
中
的
消息
数,程序会继续
运行
,但不会输出任何内容。如果我尝试
使用
beam
.io.WriteToText输出,将会创建一个空
的
临时文件夹,如:
beam
-temp-StatOut-d167
浏览 40
提问于2021-07-07
得票数 0
1
回答
在
融合卡夫卡上验证kerberos错误
、
、
、
、
我一直
在
尝试理解
apache
beam
、confluent和dataflow与
python
3.8和
beam
2.7
的
集成--所希望
的
结果是构建一个管道(它将在数据流上
运行
),它消耗了来自合流kafka这是我正在
使用
的
代码:from
apache
_
beam
.io.kafka
浏览 6
提问于2022-04-20
得票数 1
回答已采纳
1
回答
Apache
Flink
1.9.0与
Apache
光束版本
的
兼容性
、
Apache
Flink
1.9.0于2019年8月22日
发布
。我试着
运行
来自
Beam
2.15.0和
Flink
runner "
Beam
-runners-
flink
-1.8“
的
Beam
字数计数示例,
但
似乎不起作用。1.9.0版本是否有兼容
flink
runner工件
的
预计到达时间?我
使用
下面的Maven依赖项构建: <de
浏览 13
提问于2019-09-09
得票数 0
回答已采纳
2
回答
在
Mac上
使用
带停靠器
的
可携式
运行
程序
、
我正在尝试设置一个本地
的
梁
运行
程序,以便更容易地测试/开发。我希望允许测试
python
管道,它在我
的
mac上本地
使用
kafka。: - -cp - org.
apache
.
beam
.runners.
fli
浏览 23
提问于2022-11-14
得票数 1
1
回答
在
Kubernetes
中
运行
Apache
梁
python
管道
、
、
、
我试图
在
Kubernetes
的
脱机实例上
使用
flink
运行
管道。但是,由于我有带有外部依赖项
的
用户代码,所以我
使用
Python
工具作为外部服务--这会导致错误(如下所述)。component:
python
-
beam
-sdk
beam
_options = PipelineOptions([ "--runner=FlinkRunner&
浏览 1
提问于2020-02-26
得票数 7
回答已采纳
1
回答
Python
束-
Flink
运行
程序设置:
ReadFromKafka
返回错误- RuntimeError:无法编码空byte[]
、
、
、
我试图
在
python
中
构建一个流束管道,它应该从kafka捕获
消息
,然后执行从其他源获取数据和聚合
的
进一步阶段。到目前为止,我逐步建立
的
过程是:./config/server.propertiesdocker run --net=host
apac
浏览 3
提问于2020-07-14
得票数 3
1
回答
无法
使用
Apache
beam
将
消息
从源kafka主题推送到目的地kafka主题
、
、
、
我试图
运行
一个管道,
使用
apache
-束,源作为一个卡夫卡主题,目的地作为另一个卡夫卡主题。我已经编写了我
的
代码,并且
运行
良好(也就是说,
在
我认为
的
代码
中
没有
错误)。但在输出主题中看不到数据--这是代码:import
apache
_
beam
.transforms.window as wind
浏览 8
提问于2022-06-02
得票数 -1
1
回答
如何利用
beam
的
外部kafka变换(局部)消费
消息
、
、
、
、
我正在尝试
运行
一个
使用
kafka生产者(
Python
)
的
应用程序,以及一个
apache
管道,它(目前)只需将这些
消息
打印到STDOUT
中
即可
使用
。我理解
使用
、Kafka、外部转换、和、
apache
、是一种跨语言
的
努力,因为它调用了Java。我遵循了 选项1: 这是
使用
Python
转换
的</
浏览 7
提问于2021-08-25
得票数 1
1
回答
从
Flink
仪表板初始化JobManager时作业失败
、
、
我正试图
在
Flink
Runner上
运行
Python
光束作业。我已经
在
我
的
本地机器上启动了一个minikube集群,并转发了8081端口来查看localhost:8081上
的
Flink
Dashboard。部署
的
flink
集群上
的
所有东西似乎都在
运行
,
但
当我尝试执行基本管道(
在
DirectRunner上
运行
良好)时,我
在
浏览 530
提问于2021-02-04
得票数 0
点击加载更多
相关
资讯
Apache Flink 1.10.0 重磅发布,年度最大规模版本升级
想成为大数据开发工程师,你必须掌握的开发流程图是这样的
官宣:Apache Flink 1.14.0 发布
Flink on PaaSTA:Yelp运行在Kubernetes上的新流处理平台
程序员需要关注的十个大数据技术
热门
标签
更多标签
云服务器
ICP备案
对象存储
即时通信 IM
云直播
活动推荐
运营活动
广告
关闭
领券