我有多个谷歌数据流作业,用于数据收集和ETL目的。然后google dataproc作业(Spark)用于进一步的机器学习。
我想把这些工作像工作流一样绑在一起,然后我就可以安排整个工作流程了。
你有什么建议/产品可以帮助我吗?
发布于 2016-05-31 17:52:17
我目前还不知道GCP有什么很好的答案,但是有几个选择:
发布于 2016-12-07 13:33:28
我们实施了两种方法.
我更喜欢第二种解决方案,而不是第一种,因为我们使用云格式来管理Spring应用程序
第二种解决方案带来了运行24*7的dataproc作业的额外成本。
https://stackoverflow.com/questions/37458837
复制相似问题