我已经安装了Spark的2.0版本。我在Python2.7上使用Pyspark。创建SparkContext似乎没有什么困难,但由于某些原因,我无法导入SparkSession。有人知道我做错了什么吗?
import pyspark
import pyspark.sql
from pyspark.sql import SparkSession
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
ImportError: cannot import name SparkSession
发布于 2017-03-12 03:16:54
奇怪的是,这在不同的目录下工作得很好。从该路径运行文件不会导致错误!
/Users/.../spark-2.1.0-bin-hadoop2.7/python/
发布于 2018-12-20 19:21:03
SparkSession是在Apache Spark 2中引入的。要使用它,您应该在运行pyspark之前指定正确的spark版本:
export SPARK_MAJOR_VERSION=2
发布于 2020-08-24 15:56:28
导出您安装的spark的正确spark版本,它适用于我的2.3版本
导出SPARK_VERSION=2.3
https://stackoverflow.com/questions/42739246
复制相似问题