以下是我的情况:
H 210F 211
那么,我的问题是:是否有一种标准的方法/最佳实践来批处理实时客户端请求:
当接收到请求时,请稍等其他requests
。
我有一个应用程序引擎+防火墙的解决方案(用于托管共享的“队列”),但是实现延迟会给我带来麻烦(app引擎似乎不喜欢python的threading.Timer )。
我希望能与应用程序引擎一起工作,但在这一点上,我愿意接受任何建议(只要它适用于谷歌云)。
谢谢!
发布于 2021-05-31 20:42:40
最完美的(但不是最便宜的)是使用Dataflow。
当一个预测请求出现时,在
你可以想象其他的设计,更简单/更便宜。
PubSub
#2将生成大量的Fi还原读/写,但将比数据流便宜。
https://stackoverflow.com/questions/67776435
复制相似问题