首页
学习
活动
专区
工具
TVP
发布
社区首页 >问答首页 >我们可以从pyspark shell外部运行pyspark-python脚本吗?

我们可以从pyspark shell外部运行pyspark-python脚本吗?
EN

Stack Overflow用户
提问于 2018-05-11 17:48:03
回答 1查看 228关注 0票数 -1

我的pyspark脚本是它包含的m.py

代码语言:javascript
复制
l = [1,2,3,4,7,5,6,7,8,9,0]
k = sc.parallelize(l)
type(k)

当我使用spark时-提交m.py

代码语言:javascript
复制
   SPARK_MAJOR_VERSION is set to 2, using Spark2
   Traceback (most recent call last):
   File "/root/m.py", line 3, in <module>
   k = sc.parallelize(l)
   NameError: name 'sc' is not defined

有没有办法在pyspark-shell之外运行脚本?我卡住了?

同样,当我启动pyspark,然后输入:

代码语言:javascript
复制
import m

错误再次出现:

代码语言:javascript
复制
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
File "m.py", line 3, in <module>
k = sc.parallelize(l)
NameError: name 'sc' is not defined
EN

回答 1

Stack Overflow用户

发布于 2018-05-11 18:00:02

在您的驱动程序中,请确保首先创建一个sparkContext变量。正如我所看到的,您直接使用了'sc',而没有对其进行初始化。然后你就可以运行你的程序了:

代码语言:javascript
复制
from pyspark import SparkContext

sc = SparkContext.getOrCreate()

import m.py
票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/50289566

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档