腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
错误:必须指定主资源(JAR、Python或R文件)- IPython记事本
、
、
我尝试在IPython笔记本中运行Apache,遵循以下内容(以及注释中的所有建议)- ipython notebook --profile=
pyspark
=true"
pyspark
-shell'# Configure the necessary' to # the end of
浏览 7
提问于2015-07-02
得票数 7
3
回答
我应该如何在Ubuntu 12.04上集成Jupyter notebook和
pyspark
?
、
、
、
、
我是
Pyspark
的新手。我在ubuntu上安装了"bash Anaconda2-4.0.0-Linux-x86_64.sh“。还安装了
pyspark
。在终端中一切工作正常。当我在我的ubuntu终端中创建配置文件时,如下所示:[ProfileCreate] Generating default config file: u'/home/wanderer/.ipyt
浏览 0
提问于2016-04-24
得票数 3
1
回答
CDH5.12上Spark2.2的IPython安装
、
、
、
我在CDH5.12和RHEL上有一个包含Spark2.2的集群,我正在尝试设置IPython以与
pyspark
2一起使用。我已经安装了IPython 5.xLTS(长期支持),但是我不能让它工作。
浏览 3
提问于2017-10-31
得票数 0
2
回答
使用Apache Spark Submit提交Python应用程序
、
、
command#setting path for Sparkexport
PYSPARK
_DRIVER_PYTHON="jupyter"alias snotebook='$SPARK_PATH/bin/
pyspark
--master
浏览 1
提问于2016-09-03
得票数 0
2
回答
CreateProcess error=5,访问被拒绝-火花源
、
、
、
count / NUM_SAMPLES 1129 1120 1121 def count(self)
浏览 4
提问于2020-02-26
得票数 0
2
回答
cPickle.PicklingError:无法序列化对象: NotImplementedError
、
、
、
、
python/
pyspark
/serializers.py", line 590, in dumps
pyspark
_1 | File "/home/ubuntu/spark-2.4.4-bin-hadoop2.7/python/
pyspark
/cloudpickle.py", line/
浏览 2
提问于2019-10-25
得票数 2
回答已采纳
3
回答
java.io.IOException:无法运行程序"python3":CreateProcess error=2,系统找不到指定的文件
、
、
在PYCHARM上运行
pyspark
程序时,我得到以下错误,Error: java.io.IOException:无法运行程序"python3":CreateProcess error=2,系统找不到指定的文件
浏览 9
提问于2021-08-08
得票数 9
1
回答
使用“导入
pyspark
.pandas”导入错误
、
、
、
我试图安装火花放电,我打算使用
pyspark
.pandas。我试着这样检查我的包裹。import pandas as pdimport
pyspark
.pandas as ps 但是当我运行导入时,我会看到下面的错误。ImportError: cannot import name 'print_exec' from '
pyspark
.cloudpickle' (C:\Users\smith\Anaconda3\lib\site-packages\
pysp
浏览 6
提问于2022-06-25
得票数 0
回答已采纳
2
回答
AttributeError:不能在<模块'
pyspark
.cloudpickle‘>上获得属性'_fill_function’>来自‘
pyspark
/cloudpickle/__init_..py’>
、
、
当从脚本中执行
pyspark
代码时。在df.show()时获取以下错误。from
pyspark
.sql.types import StructType,StructField, StringType, IntegerTypedf.show(truncate=False) AttributeError: Can't get attribute '_fill_function' on <m
浏览 12
提问于2021-06-06
得票数 2
4
回答
Python导入语法:我不认识这个(“它错了.”)
、
PySpark
的文档在示例中包括以下内容:from
pyspark
.sql.functions import *from datetime import date, timedelta, datetime 我不认识或理解最后两行的语法。
浏览 5
提问于2022-06-15
得票数 0
回答已采纳
13
回答
火花上下文'sc‘未定义
、
、
我是新来的火花,我试图安装的
PySpark
参考下面的网站。 在朋友的帮助下,我能够通过更正.ipython/profile_
pyspark
/startup/00-
pyspark
-setup.py文件的内容来修复与相关的问题 我现在只有星火上下文变量的问题
浏览 13
提问于2015-06-10
得票数 29
回答已采纳
1
回答
气流DataprocSubmitJobOperator - ValueError:协议消息作业没有"python_file_uris“字段
、
、
、
、
我正在使用气流中的DataprocSubmitJobOperator来安排火花放电作业,而且当我无法将pyfiles传递给火花放电作业时达格
PYSPARK
_JOB"reference": {"project_id": PROJECT_ID}, "
pyspark
_job": {
浏览 10
提问于2022-07-17
得票数 1
回答已采纳
3
回答
上个星期一去火场
、
、
、
我可以这样做:
pyspark
.sql.types.StructField('AccountCreationDate',
pyspark
.sql.types.DateType(), True), <e
浏览 7
提问于2016-10-26
得票数 10
回答已采纳
3
回答
jupyter中的
PySpark
SparkContext名称错误'sc‘
、
、
、
、
我是
pyspark
的新手,我想在我的Ubuntu 12.04机器上使用Ipython notebook来使用
pyspark
。下面是
pyspark
和Ipython notebook的配置。/anaconda2/bin:$PATH"sparkuser@Ideapad= os.environ.get("
浏览 5
提问于2016-04-23
得票数 0
1
回答
我怎样才能在Ubuntu上得到火种?
我可以通过软件中心获得星火,但我如何获得火种?
浏览 0
提问于2015-06-11
得票数 1
2
回答
无法将StructField与
PySpark
一起使用
、
、
我正在运行
PySpark
外壳,无法创建数据帧。我已经做了from
pyspark
.sql.types import StructField from
pyspark
.sql.types import StructType
浏览 0
提问于2016-12-30
得票数 3
2
回答
无法在浏览器中启动
PySpark
(windows 10)
、
、
我试图通过在控制台输入
PySpark
来启动浏览器中的
pyspark
notebook,但是我得到了以下错误:python: can't open file '
浏览 1
提问于2017-02-21
得票数 0
1
回答
Windows中为
pyspark
设置的环境变量
、
、
、
、
我能够执行spark-shell命令并打开shell,如下所示:scala>C:\Spark1_6\spark-1.6.0-bin-hadoop2.6\bin>
pyspark
“‘python”不被识别为内部或外部命令。
浏览 0
提问于2017-06-15
得票数 7
回答已采纳
1
回答
在Windows上从木星笔记本启动
PySpark
时的错误消息
、
、
、
os.path.join(spark_home, 'python/lib/py4j-0.8.2.1- src.zip'))
pyspark
_submit_args= os.environ.
浏览 1
提问于2017-01-29
得票数 0
1
回答
在windows和pycharm中设置SPARK-HOME路径变量
、
、
在以下目录中:我可以运行spark-shell和
pyspark
.cmd,一切都很正常。我正在处理的唯一问题是,当我在Pycharm中编码时,我想导入
pyspark
。-bin-hadoop2.6/python") from
pyspark
import Sp
浏览 5
提问于2015-08-26
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
PySpark数据分析基础:PySpark原理详解
pyspark 安装
PySpark调优
PySpark安装+Jupyter Notebook配置
如何使用pyspark统计词频?
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券