1、spark是线程级别的任务,那么executor容器内应该运行多少个任务(线程)?如何进行考虑?
2、executor容器内运行的任务(线程)较多会出现什么问题?运行的任务(线程)较少会出现什么问题?
相似问题