腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
运行
pyspark
时
,
将
选项
传
递给
python
解释
器
的
环境变量
是什么
?
、
、
、
有一个
环境变量
用于
在
调用
pyspark
时
将
额外
的
选项
传
递给
python
解释
器
。这个变量
是什么
? $>
PYSPARK
_DRIVER_
PYTHON
=ipython <WHAT_NAME_HERE?>="--pylab"
pyspark
在
official docs中没有提到
浏览 20
提问于2021-08-11
得票数 0
回答已采纳
16
回答
在
python
shell中导入
pyspark
、
、
这是另一个论坛上其他人
的
问题
的
副本,没有人回答,所以我想我应该在这里再问一次,因为我也有同样
的
问题。(参见) 我已经
在
我
的
机器上正确安装了Spark,并且
在
使用./bin/
pyspark
作为我
的
python
解释
器
时
,能够正确地
运行
带有
pyspark
模块
的
python
程序。然而,当我试图<em
浏览 63
提问于2014-04-24
得票数 125
回答已采纳
1
回答
不能在窗口中启动
Pyspark
外壳
、
、
、
、
我正试图
在
windows上启动
Pyspark
:但是我发现了一个错误: 我试图将它添加到我
的
.bashrc文件中,但是它
浏览 13
提问于2021-12-23
得票数 0
1
回答
如何在虚拟环境中选择合适
的
Python
版本?
、
、
、
我创建一个虚拟环境并
运行
PySpark
脚本。如果我
在
MacOS上执行这些步骤,一切都会很好。但是,如果我
在
Linux (Ubuntu 16)上
运行
它们,则会选择不正确
的
Python
版本。当然,我以前
在
Linux上做过export
PYSPARK
_
PYTHON
=
python
3,但仍然是同一个问题。下面我
解释
所有步骤: 1. edit profile :vim ~/.prof
浏览 0
提问于2018-12-10
得票数 0
回答已采纳
2
回答
我如何在
Python
3中用闪烁-env.sh.Template设置
Pyspark
、
、
、
、
因为我
在
我
的
ipython3笔记本上有这个问题,所以我想我必须要以某种方式改变“火花-env.sh.Template”。例外: worker中
的
Python
版本与驱动程序3.4中
的
版本不同,
PySpark
不能在不同
的
次要版本下
运行
浏览 2
提问于2015-06-19
得票数 1
回答已采纳
1
回答
可以从命令提示符
运行
pyspark
.cmd,但不能
运行
pyspark
、
我正在尝试为windows设置
pyspark
。我有java、
python
、Hadoop和spark,我相信所有的设置和
环境变量
都是按照别处
的
指示进行设置
的
。实际上,我可以从命令提示符
运行
以下命令:它将加载
pyspark
解释
器
。但是,我应该能够
运行
不合格
的
pyspark
(没有.cmd),否则
python
导入将不起作用。我
浏览 0
提问于2018-10-03
得票数 0
0
回答
使用
pyspark
设置
运行
python
脚本
、
我
在
spark-defaults.conf中有Spark配置,xml文件: core-site.xml、hive-site.xml,并且我导出了
环境变量
。当我
运行
pyspark
控制台
时
:然后:一切都是正确
的
,但是当我使用纯
python
解释
器
浏览 2
提问于2016-07-07
得票数 0
回答已采纳
8
回答
Python
工作人员未能连接回
、
、
、
、
我是一个拥有火花
的
纽比人,并试图完成一个星火教程:from
pyspark
import SparkContext, SparkConf if __name__ == "__main\
python
\lib\
pyspark
浏览 6
提问于2018-11-11
得票数 20
回答已采纳
17
回答
如何
将
PyCharm与
PySpark
连接?
、
、
、
、
但是,我使用Pycharm
在
python
中编写脚本。问题是:当我去Pycharm并尝试调用
pyspark
时
,Pycharm找不到模块。我尝试
将
路径添加到Pycharm,如下所示:然后
在
一个中我尝试了这样
的
方法:import sys os.environas e:
浏览 13
提问于2016-01-08
得票数 88
回答已采纳
4
回答
在
intellij上设置
pySpark
、
、
如何在intellij上设置
pySpark
。即使
在
设置了
环境变量
spark_home和pythonpath之后,导入
pySpark
仍会给出错误-导入错误:没有名为
pySpark
的
模块
浏览 1
提问于2017-05-05
得票数 0
1
回答
安装
pyspark
的
最新配置
是什么
?
、
、
我正在尝试安装
pyspark
。遵循这个主题,特别是来自OneCricketeer和zero323
的
建议。我做了以下工作:2-
在
我
的
.bashrc文件中设置:export
PYSPARK
_
PYTHON
=
浏览 1
提问于2020-09-26
得票数 0
1
回答
能否
将
Intellij
python
解释
器
设置为虚拟set (类似于py魅力中
的
)
、
、
我需要为
python
解释
器
执行一些自定义设置:与
pyspark
特别相关:"interpeter“实际上将是spark-submit (又名
pyspark
) shell脚本。其目的是能够
在
中
运行
pyspark
作业。
在
Run Configuration中
运行
也很好:这将是另一种方法。我使用IJ终极版--它有很好
的
python
支持:除了这个特定
的
用例之外。让
浏览 3
提问于2017-02-26
得票数 0
回答已采纳
3
回答
如何使用PyCharm为远程
Python
解释
器
保留
环境变量
、
、
、
我使用通过ssh访问
的
远程
Python
解释
器
(使用pew创建
的
虚拟环境)。当手动对服务
器
进行ssh‘’ing并使用
解释
器
时
,这是很好
的
。但是,当使用PyCharm调用它
时
,它会忘记我
在
.bashrc中导出
的
环境变量
。 当通过ssh调用
Python
解释
器
时
,PyCharm (即
浏览 4
提问于2017-10-11
得票数 10
11
回答
环境变量
PYSPARK
_
PYTHON
和
PYSPARK
_DRIVER_
PYTHON
、
、
、
它是正确安装
的
。当我
在
python
中使用下面的简单程序时,我会得到一个错误。(data)在
运行
最后一行
时
,我得到了一个错误,其关键行似乎是 File "/usr/local/lib/
python
3.5/dist-packages/
pyspark
/
浏览 22
提问于2018-01-15
得票数 36
回答已采纳
5
回答
Apache Spark:如何在
Python
3中使用
pyspark
、
、
但是当我执行bin/
pyspark
时
,我得到
的
是
Python
2.7.9版本。我怎样才能改变这一点?
浏览 5
提问于2015-05-17
得票数 99
1
回答
PySpark
和Spark有什么不同?
、
、
我正在问一个非常类似于
的
问题,这个答案
解释
了
pyspark
安装中确实有spark。当我通过Anaconda做这件事时会发生什么?还有,有没有其他方法可以
在
PyCharm中
运行
呢?因为,我
的
jupyter笔记本
运行
得很好。我知道
PySpark
是一个使用
python
编写可伸缩spark脚本
的
包装
器
。我所做
的
就
浏览 3
提问于2021-04-23
得票数 2
1
回答
当使用火花提交
时
,哪里执行
python
脚本?
、
、
、
、
我试图发送一个完整
的
conda环境下
的
,
在
执行spark-submit
时
,
在
客户端模式中使用参数--archives来实现纱线。但是问题是,主要
的
python
脚本在哪里
运行
,因为我需要指定我
的
共享conda环境
的
位置,以便在没有错误
的
情况下执行,因为
在
主机中,我试图退出spark-submit,我没有安装依赖项,而且我不想安装它有一种方法可以使用附带
的
环境执行主<
浏览 5
提问于2019-10-29
得票数 0
回答已采纳
2
回答
无法
在
另一个pycharm项目中
运行
pyspark
、
、
、
、
我设法
在
MacV10.15.7和我
的
一个Pycharm项目(让我们称之为项目A)上本地设置了Spark。然而,我无法
在
另一个Pycharm项目(项目B)中启动Spark,该项目是我使用与项目A相同
的
解释
器
设置
的
。
在
项目B环境中,我似乎能够调用spark会话。当我
在
项目B pycharm终端中调用
pyspark
时
,我得到了以下错误消息。虽然我通过从项目A pycharm终端和Macbook Term
浏览 3
提问于2020-11-30
得票数 0
1
回答
Spyder中
的
SparkContext定义抛出Java网关错误
、
、
、
我想使用Spyder与
pyspark
(火花-2.1.1),但我不能修复一个相当令人沮丧
的
Java错误。
在
激活conda环境(
Python
版本为3.5.3)之后,我从Windows 10
的
命令行启动spyder。这是我
的
密码:sc =
pyspark
.SparkContext("local")words
浏览 4
提问于2017-05-26
得票数 1
回答已采纳
2
回答
在
python
中
运行
PySpark
代码
、
我有一个
PySpark
代码/应用程序。
运行
它
的
最佳方法
是什么
(利用
PySpark
的
最大功率),使用
python
interpreter还是使用spark-submit 因此,
的
回答几乎是相似的,但并没有详细
解释
。我很想知道为什么?任何帮助都是非常感谢
的
。提前谢谢。
浏览 1
提问于2018-12-20
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
0485-如何在代码中指定PySpark的Python运行环境
Windows和PC机上搭建Spark+Python开发环境的详细步骤
PySpark安装+Jupyter Notebook配置
pyspark 安装
五分钟了解 Node.js Shebang
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券