首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >Pyspark中SparkSession的导入错误

Pyspark中SparkSession的导入错误
EN

Stack Overflow用户
提问于 2017-03-12 02:54:26
回答 3查看 7.5K关注 0票数 5

我已经安装了Spark的2.0版本。我在Python2.7上使用Pyspark。创建SparkContext似乎没有什么困难,但由于某些原因,我无法导入SparkSession。有人知道我做错了什么吗?

代码语言:javascript
运行
复制
import pyspark
import pyspark.sql
from pyspark.sql import SparkSession
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
 ImportError: cannot import name SparkSession
EN

回答 3

Stack Overflow用户

发布于 2017-03-12 03:16:54

奇怪的是,这在不同的目录下工作得很好。从该路径运行文件不会导致错误!

/Users/.../spark-2.1.0-bin-hadoop2.7/python/

票数 0
EN

Stack Overflow用户

发布于 2018-12-20 19:21:03

SparkSession是在Apache Spark 2中引入的。要使用它,您应该在运行pyspark之前指定正确的spark版本:

代码语言:javascript
运行
复制
export SPARK_MAJOR_VERSION=2
票数 0
EN

Stack Overflow用户

发布于 2020-08-24 15:56:28

导出您安装的spark的正确spark版本,它适用于我的2.3版本

导出SPARK_VERSION=2.3

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/42739246

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档