sparkstreaming产生的日志,越来越大,如何定期删除??

  • 回答 (0)
  • 关注 (0)
  • 查看 (56)

sparkstreaming一直运行,hdfs://***:9000/spark-log 下的log文件很大,spark-default.conf下配置 spark.executor.logs.rolling.time.interval

没反应。。。有没有配置过的,或者 遇到这个问题 如何解决??

zx4188zx4188提问于

扫码关注云+社区

领取腾讯云代金券