我想为从python脚本胶水作业到DDB的调用添加一个速率限制器,并减少它的调用量峰值。(ApplicationMaster.scala)引起的rmation.doAs(UserGroupInformation.java:1844):org.apache.spark.SparkUserAppException:用户应用程序与1 at org.apache.spark.deploy.PythonRunner$.main一起退出( org.apache.<
我的客户端驱动程序代码正在从IntelliJ的本地环境中执行。; check your cluster UI to ensure that workers are registered and have sufficient resources
我在调试模式下运行我的应用程序,在我进入上面提到的代码之后,我进入了Spark,我看到我的应用程序实际上连接到了Spark</em
我使用木星终端访问Dataproc集群的驱动程序。这是我通往集群的网关,我没有为驱动程序机器启用直接SSH。当我启动spark时,我会在整个会话中不断地获取这些信息、调试、上下文清理消息,并在某种程度上干扰了我的编码工作。有办法把这些关掉吗?scala> 22/10/11 15:47:31 INFO org.apache.spark.scheduler.cluster.YarnSchedulerBackend