我有一个非常简单的测试脚本,看看我是否可以使用spark submit向s3写入数据.sc = SparkContext()
numbers环境中使用submit运行这个脚本时,它工作得很好。但是,当我试图在python3.4环境中运行相同的脚本时,我会得到以下的跟踪结果.: Can't get attribute 'unicode' o
我创建一个虚拟环境并运行PySpark脚本。如果我在MacOS上执行这些步骤,一切都会很好。但是,如果我在Linux (Ubuntu 16)上运行它们,则会选择不正确的Python版本。当然,我以前在Linux上做过export PYSPARK_PYTHON=python3,但仍然是同一个问题。下面我解释所有步骤:
2. add the code into the file: