不确定最近发生了什么,但是我们遇到了PubSub + GCF的几个问题。
我们使用Python客户端库很好地发布了100 K大型消息。我们使用返回的消息_id来确认这一点。
然而,订阅的背景GCF (Python)并不是一致触发的。500条左右的消息(无模式):
函数完全执行,但stdout不在SD日志中。它只显示
Function execution started
Function execution took 1634 ms, finished with status: 'ok'
函数部分执行,并在代码中的任何地方崩溃,例如在第一次打印语句之后。
Funct
我正在尝试将云函数pubsub订阅转发到一个死信主题,如下所述:
我试过了
$ gcloud pubsub subscriptions update gcf-worker-topic --dead-letter-topic=gcf-worker-dead-letter-topic
并尝试在控制台中修改gcf-worker-topic订阅。两者都给了我相同的错误:
ERROR: (gcloud.pubsub.subscriptions.update) INVALID_ARGUMENT: The supplied AppEngine URL project does not match the s
我想知道是否有可能从公共部门获得数据并发送给哨兵。我是说:
sentry.init(...., integrations=[BeamIntegrations()])
try:
with Pipeline(optins=options) as pipeline:
(
pipeline
| io.ReadFromPubSub(...) // example message {'f': 'b'}, with attribut id: id1
| some transaformations...
expect:
// and any
我正在使用GCP数据流运行Apache Beam管道,并从worker那里获得了以下错误:
Error message from worker: java.lang.RuntimeException: java.lang.IllegalStateException: Got poison pill or timeout but stream is not done
两分钟内就有了。
我正在使用管道将消息从PubSub写到BigQuery。在管道中,当将PubSub消息转换为TableRow时,我使用的是FailsafeElement<PubsubMessage, String>,并
最近,我编写了一些代码,将从azure服务总线发出的死信队列消息处理为报表。
我正试图通过将大量的消息上传到死信队列中来测试该代码,以供其处理。
我组装了一个c# linqpad /控制台应用程序,该应用程序读取一个文本文件文件夹,并尝试使用Azure.Messaging.ServiceBus客户机库将每个文本文件作为消息发送给我的testqueue/$死信,如下所示:
var files = Directory.GetFiles(messagePath,filePattern);
var client = new ServiceBusClient(connectionString);
var
在一个项目中,我的要求是得到蓝色死信的数量。如果计数大于0,那么我必须得到每条死信的详细信息,比如描述或死信的原因,然后保存到cosmos db中。为了获得死信计数,我使用了代码:
NamespaceManager namespaceManager=Microsoft.ServiceBus.NamespaceManager.CreateFromConnectionString(sbConnectionString);
var abc = namespaceManager.GetQueue("").MessageCountDetails;
var dead