腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(4071)
视频
沙龙
1
回答
数据流
作业
停滞
在从
发布
/
订阅
读取
时
、
、
、
有一个从Pub/Sub
读取
数据、转换数据并将结果保存到GCS的管道。通常它在1-2周内工作良好。在那之后,它就变得糟糕了。Thread.java:748) 步骤01只是一个"Read PubSub Messages" >> beam.io.ReadFromPubSub(subscription=subscription) 在此之后,
数据流
将增加工作进程的数量
作业
仍处于RUNNNING状态。 我们只需要重新启动
作业
来解决它。但每隔两周就会发生一次。 我们怎样才能修复它?
浏览 19
提问于2020-12-10
得票数 2
1
回答
数据流
管道
在从
发布
/
订阅
读取
时
停滞
、
、
、
经过一天的正常工作,从
发布
/
订阅
流式传输数据,扁平数据并将行写入BigQuery;
数据流
管道开始报告如下错误: Processing stuck in step s01 for at least 05m00s
浏览 9
提问于2019-04-22
得票数 1
2
回答
如何在google cloud dataflow中停止流管道
、
、
我有一个流
数据流
正在运行以
读取
发布
/
订阅
订阅
。有没有办法做到这一点?我是不是漏掉了什么?或者API中缺少该功能。
浏览 3
提问于2015-06-16
得票数 4
1
回答
如何通过谷歌提供的PubSub to BigQuery
数据流
模板使用现有的PubSub
订阅
、
我正在尝试使用谷歌提供的模板PubSub to BigQuery设置一个
数据流
作业
。我看到一个用于指定云
发布
/
订阅
输入主题的选项,但我没有看到任何用于在GCP控制台UI中指定
发布
/
订阅
输入
订阅
的选项。 如果我提供了主题,job会自动创建一个
订阅
来
读取
所提供的主题中的消息。这样做的问题是,在
数据流
作业
启动后,
作业
将仅看到
发布
到主题的消息。之前<e
浏览 3
提问于2018-01-12
得票数 3
回答已采纳
1
回答
我应该使用pub/sub吗
我正在尝试设计一个摄取应用程序,我首先认为在cron
作业
中编写一个简单的Python脚本来顺序
读取
文件(甚至在两个三线程中),然后将它们作为消息
发布
到pub/sub是一个好主意。此外,我需要有一个
数据流
作业
运行,始终从
发布
/
订阅
读取
数据,并将它们保存到BigQuery。但是我真的想知道在这里我是否需要
发布
/
订阅
,我知道
数据流
可以非常灵活,我想知道我是否可以将1TB的数据
浏览 4
提问于2019-02-15
得票数 1
1
回答
Dataflow/Apache Beam在哪个阶段确认
发布
/
订阅
消息?
、
、
、
我有一个
数据流
作业
,将
发布
/
订阅
订阅
作为无限源。我想知道
数据流
在哪个阶段对传入的
发布
/
订阅
消息进行确认。在我看来,如果在
数据流
管道的任何阶段抛出异常,消息就会丢失。此外,我还想知道如何使用
发布
/
订阅
无限源编写
数据流
管道的最佳实践,以便在失败
时
进行消息检索。谢谢!
浏览 0
提问于2017-10-13
得票数 7
1
回答
在Apache Beam Python SDK中
发布
/
订阅
到数据存储批处理
数据流
作业
可能吗?
、
、
、
我有一个
发布
/
订阅
主题,它将定期(通常每隔几天或几周一次,但有时更频繁)接收批量消息。我想启动一个批处理
数据流
作业
来
读取
这些消息,执行一些转换,将结果写入数据存储,然后停止运行。当一批新的消息发出
时
,我想开始一项新的工作。我已经阅读了Apache Beam Python SDK文档和许多问题,但对一些事情仍然不确定。 是否可以将
发布
/
订阅
IO作为非流
作业
的一部分进行
读取
?然后,同一
作业</
浏览 2
提问于2019-02-21
得票数 1
1
回答
当ParDo函数中存在错误时,NACK不会从
数据流
发送回Google Cloud
发布
/
订阅
、
、
当
数据流
作业
无法或不愿意处理消息
时
,如何向
发布
/
订阅
发送NACK。logger.info("Started ZipFile Extractor"); pipeline.run().waitUntilFinish(); 上面是我用来运行ApacheBeam
数据流
管道
作业
的代码片段如果ProcessZipFileEventDoFn中发生任何故障,我希望向
发布
/
订阅
订阅
发送一
浏览 19
提问于2021-04-22
得票数 1
0
回答
如何在BigQuery插入错误时崩溃/停止DataFlow
发布
/
订阅
摄取
、
、
我正在寻找一种方法,使谷歌DataFlow
作业
停止摄取从
发布
/
订阅
时
,一个(特定的)异常发生。来自
发布
/
订阅
的事件是使用TableRowJsonCoder通过PubsubIO.Read.Bound<TableRow>
读取
的JSON,并使用BigQueryIO.Write.Bound直接流式传输到相反,我想要做的是停止接收来自
发布
/
订阅
的消息和/或使
数据流
作业
浏览 5
提问于2017-06-10
得票数 5
回答已采纳
1
回答
Google Cloud Pub/Sub中的积压
、
、
我是GCP的新手,在阅读有关通过
数据流
服务自动调优的文档
时
,他们谈到了积压和依赖于它的自动伸缩。在这种特殊情况下,什么是backlog?如果我的管道正
在从
发布
/
订阅
中
读取
,它是最旧消息的年龄还是未确认消息的数量?
浏览 17
提问于2021-05-28
得票数 1
回答已采纳
1
回答
在
数据流
中使用Flex模板
时
,--impersonate和--service-account-email有什么区别?
在使用gcloud dataflow flex-template run
时
,我很难理解--impersonate和--service-account-email之间的区别。据我所知,--impersonate对于gcloud是全局的,而另一个标志仅用于与
数据流
相关的命令。但在此期间,我仍然需要能够模拟我在使用--service-account-email
时
使用的服务帐户...非常感谢!艾德里安。
浏览 6
提问于2021-01-22
得票数 1
1
回答
GCP
数据流
与云函数
、
、
、
我有一个现有的系统,其中的数据被
发布
到Pub/Sub主题,由云函数
订阅
者
读取
,并被推送到Big Query存储它(没有在
订阅
服务器CF中完成的额外转换)。这是一个好主意,将我的订户CF改为一个
数据流
流
作业
使用酒吧/子烧烤模板?使用它们的利弊是什么?
浏览 0
提问于2019-11-09
得票数 4
回答已采纳
1
回答
GCP
数据流
作业
停留在“正在更新”状态达18小
时
、
我在GCP上的
数据流
作业
(2019-05-07_06_51_21-705453987744722209)在过去的18小
时
内一直停留在状态“正在更新”中。作为此
作业
更新的
作业
已在相同时间内处于未启动状态(2019-05-07_07_48_56-11394590249055546323)。我不能取消或耗尽这两项工作。我试着从命令行执行(gcloud dataflow
作业
取消,等等)但得到的回应是: 无法取消
作业
2019-05-07_06_51_21-705453987744
浏览 12
提问于2019-05-08
得票数 1
1
回答
完成后将
数据流
作业
状态
发布
到Google Pub/Sub
、
目前,我正在使用Flex模板从微服务启动
作业
。我正在尝试找到一种更好的方法(而不是使用
作业
轮询方法)来获取
数据流
作业
状态。基本上是尝试在
数据流
作业
完成后将
数据流
作业
状态
发布
到pubsub上。
浏览 19
提问于2021-01-08
得票数 0
2
回答
有没有办法在GCP中对批处理
数据流
作业
进行排队?
、
、
、
、
所有这些存储桶都有一个关联的
发布
/
订阅
通知主题,该主题在文件创建事件
时
触发。每个事件都会触发一个
数据流
作业
来处理该文件。为了限制这些请求,我限制了每个
数据流
作业
可用的工作线程数量。然而,我想知道是否有一种方法可以对这些批处理
作业
进行排队?只有5到10个<
浏览 2
提问于2021-06-11
得票数 0
1
回答
python
数据流
作业
在部署
时
使用requirements_file参数后不接受来自pubsub
订阅
的消息
、
、
、
在写入大型查询之前,我想使用
数据流
作业
对来自pubsub
订阅
的即将到来的消息进行加密。我使用pycryptodome==3.9.8,cryptography==3.1 python库来做这件事。在
数据流
作业
中,我使用了以下两个导入 从加密导入随机从Crypto.Cipher导入AES 当我尝试在没有--requirements_file参数的情况下部署
数据流
管道
时
。它可以完美地部署,但在将消息
发布
到主题之后,它会抛出一个错误 ModuleNotFoun
浏览 6
提问于2020-09-25
得票数 1
回答已采纳
1
回答
如何验证Google PubSub是否触及了我的端点而不是其他参与者
、
我有一个功能齐全的端点,当在用户的Gmail收件箱中检测到更改时,它将接收来自PubSub
订阅
的POST请求。在端点内部,我可以成功地提取为我的目的所需要的一切。在Gmail端:似乎发送到我的端点的有效负载无法更改,并且总是以如下所示的形式出现: 在PubSub方面:您可以创建自己的主题,并将键/值对作为自定义属性添加到主题中,但我似乎无法修改Gmail
发布
给我的主题的有效负载
浏览 0
提问于2018-11-13
得票数 0
回答已采纳
1
回答
云功能可以有效地调度
数据流
吗?
、
、
使用Cloud functions安排
数据流
作业
的一些最佳选项是什么?我想安排
数据流
作业
在某个时间启动和停止。
数据流
作业
可能正
在从
无限源
读取
,并且可能会连续运行,因此希望将其安排为停止。
浏览 0
提问于2018-08-16
得票数 1
2
回答
如何将GCP
订阅
的消息转发到另一个主题?
、
我希望能够将Google平台( GCP ) Pubsub
订阅
的消息转发到另一个GCP主题,这可能是在另一个GCP项目中。 是否可以通过推送端点URL (目标主题的url是什么?)
浏览 3
提问于2016-11-17
得票数 4
1
回答
在
数据流
模板
作业
完成后将消息
发布
到
发布
/
订阅
我想在
数据流
作业
成功完成后将消息
发布
到
发布
/
订阅
主题。 为此,我使用wait_until_finish(),然后在确认管道已完成(当前状态为JOB_STATE_DONE)后
发布
一条消息。当我在本地执行管道(使用DirectRunner或DataflowRunner)
时
,我得到了所需的结果。但是,当我将此管道部署到模板,然后从模板创建
作业
时
,p.run()外部的代码不会执行。result.wait_until_finish()
浏览 13
提问于2019-08-30
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
最新开源项目 Confluo,吞吐量是 Kafka的4到10 倍!
伯克利开源 Confluo,吞吐量是 Kafka 的 4 到 10 倍
伯克利开源 Confluo,吞吐量是 Kafka的4到10 倍
Spark Streaming和Kafka集成深入浅出
吞吐量比Kafka高4到10倍!伯克利开源 Confluo
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券