我将值赋值为sc = pyspark.SparkContext()。它在jupyter笔记本上运行了很长时间,没有响应,因为出现了星号,并且没有显示任何错误。我试过sc = SparkContext()import ossc = pyspark.SparkContext() # At this part it don't respond
from pyspark.sql i
在亚马逊网络服务的文档中,他们指定了如何激活对Spark作业()的监控,但不是python外壳作业。使用原样的代码会给出这个错误:ModuleNotFoundError: No module named 'pyspark'
更糟糕的是,在注释掉from pyspark.context import SparkContextpython shell作业似乎不能访问glue上下文?
我正在尝试为pyspark安装geomesa,并在初始化时收到错误~/opt/anaconda3/envs/geomesa-pyspark/lib/python3.7/site-packages/geomesa_pyspark/__init__.py in init_sql(spark) 114 def in