腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
需要
RDD
的实例,但返回了类“
pyspark
.
rdd
.PipelinedRDD”
python
、
apache-spark
、
spark-dataframe
、
rdd
嗨,我
在
Notebook中有这段代码,并尝试编写python spark代码: spark.sql("SELECTdf,spark):return result.
rdd
.sample(False, 0.1).map(lambda row : (row.temper
浏览 0
提问于2017-06-04
得票数 5
回答已采纳
1
回答
如何在没有模式的情况下查询dataframe和
rdd
pyspark
如何将csv文件without any schema加载到spark
rdd
和dataframe
中
并分配模式AA,19970101,47.82,47.82,47.82,47.82,0
浏览 0
提问于2019-07-17
得票数 0
1
回答
如何从任何数据库表
创建
PySpark
RDD
?
pyspark
由于我是星火社区的新手,任何人都能解释如何从数据库表
创建
PySpark
RDD
吗?我可以使用
PySpark
方法的textFile()方法从CSV文件
创建
SparkContext
RDD
。但我不知道从数据库表
中
创建
PySpark
RDD
。
浏览 0
提问于2018-02-10
得票数 1
回答已采纳
1
回答
如何在Spark
中
从另一个
RDD
的前n项生成
RDD
?
pyspark
在
pyspark
中
给出一个
RDD
,我想
创建
一个新的
RDD
,它只包含它的前n项(副本),如下所示: n=100
rdd
2 =
rdd
1.limit(n) 除了
RDD
没有像DataFrame那样的方法limit注意,我不想收集结果,结果必须仍然是
RDD
,因此我不能使用
RDD
.take()。 我使用的是
pyspark
2.44。
浏览 19
提问于2019-10-13
得票数 0
回答已采纳
1
回答
制作和操作numpy数组,并通过
pyspark
使用数据
numpy
、
pyspark
我
在
使用
pyspark
.mllib.stat.KernelDensity
中
手工
创建
的测试数据时遇到了一个问题。
在
使用(某些)
pyspark
时,numpy.float和Python的通用float之间存在某种问题/差异;特别是使用numpy.float的中断构造的RDDs。有没有办法让我
创建
的NumPy数组的元素是python的浮点数而不是numpy.float的?import
pyspark
import
pyspark
.m
浏览 0
提问于2018-05-15
得票数 0
1
回答
在
使用
PySpark
时,如何在Spark
中
实现Python数据结构?
python
、
python-2.7
、
apache-spark
、
pyspark
我目前正在自学Spark programming,并试图用
PySpark
重新编写一个现有的Python应用程序。然而,我仍然对如何在
PySpark
中使用常规Python对象感到困惑。我了解Spark
中
的分布式数据结构,如
RDD
、DataFrame、Datasets、vector等。Spark有自己的转换操作和动作操作,如.map()、.reduceByKey()来操作这些对象。但是,如果我
在
PySpark
中
创建
传统的Python数据对象,比如数组、列表
浏览 34
提问于2017-03-01
得票数 1
回答已采纳
2
回答
在
Spark
中
重命名缓存的
RDD
/Dataframe描述
apache-spark
、
pyspark
、
databricks
在
Scala
中
,有一种名为setName的方法,它允许用户
在
Spark的Storage选项卡下指定用户友好地显示缓存的RDDs/Dataframes。(我在这个操作中使用Databricks ) 注意:我已经尝试使用使用Python 的setName方法,但这似乎没有更新Spark
中
存储选项卡
中
RDD
名称的描述(每个"
RDD
名称“以查询形式显示)-
浏览 10
提问于2022-01-01
得票数 0
1
回答
传递由:
PySpark
引起的函数错误的java.io.EOFException映射转换
pyspark
我的问题似乎是
在
功能,但不确定它。
在
执行代码时,我收到了以下错误:
rdd
, schema = self._inferSchema(
rdd
, samplingRatio, names=schema) File "
浏览 34
提问于2022-10-28
得票数 0
2
回答
在
pyspark
中
创建
rdd
的
rdd
python
、
apache-spark
、
pyspark
、
rdd
可以
在
pyspark
中
创建
rdd
的
rdd
吗?我试过了
rdd
2=sc.parallelize([4,5,6])并得到错误
浏览 22
提问于2019-11-17
得票数 0
回答已采纳
1
回答
如何使用
pyspark
.mllib
rdd
api度量来测量
pyspark
.ml (新数据帧api)?
pyspark
、
apache-spark-mllib
、
apache-spark-ml
MlLib的旧API有评估指标类:,而新的dataframe API没有这样的类:
浏览 0
提问于2016-09-06
得票数 0
2
回答
将数据保存到HDFS的格式是什么?
hadoop
、
apache-spark
、
hdfs
、
apache-spark-sql
创建
DataFrame后,我可以将其保存为avro、csv或拼板格式。
在
dataframe或
rdd
中
是否有其他格式可用于
在
Hadoop中保存数据?
浏览 2
提问于2017-12-21
得票数 1
1
回答
电火花纱获得烟斗拒绝许可
pyspark
、
hadoop-yarn
、
cloudera-cdh
我试图用CDH
在
纱线上运行电火花,在这个生火的主程序
中
,有一条类似于
rdd
.pipe("XXX.sh")的语句,每次我运行它时,都会弹出一个被拒绝的错误,我该怎么办来解决这个错误呢?谢谢。_0079/container_1495632173402_0079_01_000001/
pyspark
.zip/
pyspark
/
rdd
.py",第2346行,
在
"/data/yarn&
浏览 3
提问于2017-05-25
得票数 0
4
回答
从列表的
RDD
创建
星火DataFrame
apache-spark
、
dataframe
、
pyspark
我有一个
rdd
(我们可以称之为myrdd),其中
rdd
中
的每个记录都具有如下形式: [('column 1',value), ('column 2',value), ('column 3',value
浏览 0
提问于2015-04-07
得票数 15
回答已采纳
1
回答
在
PYspark
中
创建
RDD
pyspark
Spark
中
的一切都是以
RDD
(键和值对)的形式
创建
的。这有必要吗?可以通过
RDD
数据集
创建
/执行哪种类型的分析?请提供一个将其转换为
RDD
的示例和用法 谢谢,Aditya
浏览 15
提问于2019-04-30
得票数 0
2
回答
如何在火花放电中将密集向量的关系式转换成DataFrame?
apache-spark
、
pyspark
、
apache-spark-mllib
、
apache-spark-ml
、
apache-spark-2.0
我有这样的DenseVector
RDD
[DenseVector([1.0, 0.0, 1.0, 1.0, 0.0, 0.0,/sql/session.py", line 520, in createDataFrame File "/opt/BIG-DATA/spar
浏览 3
提问于2016-12-26
得票数 11
回答已采纳
5
回答
我
在
Spark
中
创建
简单的
RDD
时遇到错误
python
、
apache-spark
、
rdd
我正在使用Jupyter notebook,刚刚开始学习Apache spark,但在
创建
简单的
RDD
时遇到错误:错误是:,每种情况下都会发生这种情况
浏览 3
提问于2017-03-30
得票数 5
2
回答
访问火花放电
中
的JavaRDD
java
、
apache-spark
、
pyspark
、
apache-zeppelin
在
中
,我通过调用从Java加载的类的静态函数来
创建
一个JavaRDD对象。是否可以使用
Pyspark
访问这个JavaRDD? 从SqlContext访问表。获取表的
RDD
,并将其内容映射回反序列化版本。
浏览 8
提问于2015-08-20
得票数 3
3
回答
Spark
RDD
to DataFrame python
python
、
apache-spark
、
pyspark
、
spark-dataframe
我正在尝试将Spark
RDD
转换为DataFrame。我已经看到了将方案传递给sqlContext.CreateDataFrame(
rdd
,schema)函数的文档和示例。是否有其他方法可以
在
不事先知道列的信息的情况下指定模式。
浏览 0
提问于2016-09-26
得票数 47
回答已采纳
2
回答
pyspark
rdd
/dataframe未在cassandra
中
自动
创建
表
apache-spark
、
pyspark
、
cassandra
、
rdd
、
spark-cassandra-connector
在
检查了所有找到的源之后,datastax-spark-cassandra连接器支持
在
cassandra中使用scala和java
中
的
rdd
自动
创建
表。特别是对于
pyspark
,有另一个包可以完成这项工作-- 。但是即使有了这个包也不能自动
创建
表格。对于dataframe,我根本找不到任何选项。我刚接触
pyspark
和cassandra,任何帮助都是非常感谢的。尝试仅使用anguenot包作为依赖项。Spark版本: 2.4.7 Cassandra :
浏览 8
提问于2021-03-03
得票数 2
1
回答
从
RDD
-
PySpark
创建
数据帧
python-3.x
、
apache-spark
、
pyspark
、
rdd
在
执行
PySpark
代码时,通过提供所需的模式从现有的DataFrame
创建
DF时,我无法展示
在
什么情况下会引发以下异常,此代码
在
Databricks社区平台中执行。代码: from
pyspark
import SparkConf, SparkContextsc = SparkContext.getOrCreate(conf=conf)
rdd
=s
浏览 108
提问于2021-10-25
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券