我正在运行一个星火流应用程序。有几次,其中一个作业由于某些运行时异常而失败。streaming将作业标记为失败,并继续处理下一个流批。如果其中一个作业失败,是否有一个参数可以设置为通知Spark关闭应用程序(而不是处理下一个流批)?我在独立集群模式上使用Spark1.4.1。
发布于 2016-06-13 08:08:10
在程序中,您可以:
System.exit(0)
放在你想要的地方。如果您的shutDownGracefully属性设置为true,它将优雅地关闭进程并结束程序。这里有一个参考https://stackoverflow.com/questions/37756943
复制相似问题