腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
映射
(
Py
)
Spark
DataFrame
中
的
值
、
、
'The letter A', 'The letter A',]) 'a': 'The letter A', 'c': 'The third letter&
浏览 6
提问于2018-08-02
得票数 2
回答已采纳
1
回答
无法将RDD转换为
DataFrame
(RDD有数百万行)
、
、
、
我正在使用ApacheSpark1.6.2但是,我必须首先将它转换为RDD来进行
映射
,以获得我想要
的
数据(列)。
映射
RDD很好,但是当涉及到将RDD转换为
DataFrame
时,火花抛出一个错误。\pyspark\context.
py
", line 939, in runJob File "c:\
spark
\python\lib\
py
4j-0.9-sr
浏览 3
提问于2017-01-14
得票数 4
回答已采纳
1
回答
TypeError:需要一个类似字节
的
对象,而不是“行”星图
、
、
我正试图在我
的
DataFrame
中将XML转换为JSON。我有以下几点 return json.dumps(xmltodict.parse(line)) File "/usr/hdp/current/
spark
2-cli
浏览 0
提问于2018-03-13
得票数 0
回答已采纳
1
回答
我
的
本地火星雨少了什么?
、
估计大小为61.8 KB,空闲78.0 KB) 16/12/29 11:55:36 INFO storage.MemoryStore:块broadcast_2_piece0存储为内存
中
的
字节(估计大小为:块broadcast_3存储为内存
中
的
值
(估计大小为212.1 KB,空闲309.7 KB) 16/12/29 11:55:36 INFO storage.MemoryStore:内存
中
存储为字节
的
块/
dataf
浏览 5
提问于2016-12-29
得票数 1
1
回答
如何从pyspark
中
的
dataframe
列中选择不同
的
非空
值
、
如何从
py
-
spark
中
的
dataframe
列中选择不同
的
非空
值
。
浏览 30
提问于2021-07-03
得票数 0
2
回答
string for Python -不能将字符串列强制转换为十进制/双进制
、
、
在所有发布
的
关于这个行动
的
问题中,我找不到有用
的
东西。我尝试了几个版本,在所有的版本
中
,我都有一个
DataFrame
dataFrame
.printSchema"/usr/local/
spark
/python/lib
浏览 1
提问于2017-10-25
得票数 3
回答已采纳
3
回答
PySpark使用字典
中
的
映射
创建新列
、
、
、
、
使用
Spark
1.6,我有一个
Spark
DataFrame
column (假设命名为col1),其
值
为A、B、C、DS、DNS、E、F、G和H,我想用下面dict
中
的
值
创建一个新列(比方说col2),我该如何
映射
它?“A”需要
映射
到“S”,等等。)
浏览 3
提问于2017-03-23
得票数 42
回答已采纳
2
回答
星火1.3.1 (PySpark)和MongoDB 3.4
中
的
错误
、
、
我有一个非常简单
的
脚本来持久化带有MongoDB
中
两列
的
数据文件:from pyspark.sql import); at(Option.scala:120) at org.apache.<em
浏览 4
提问于2017-03-30
得票数 0
回答已采纳
1
回答
火花df、拼花物体和熊猫df之间
的
转换
、
、
在创建火花会话之后,我运行了以下代码
spark
_df.select('*').toPandas(我需要火花df和熊猫df
的
原因是,对于一些较小
的
DataFrame
,我想很容易地使用各种熊猫EDA函数,但对于一些较大
的
,我需要使用火花sql。首先,把地板转向熊猫,然后再点燃df,这似乎有点迂回。
浏览 3
提问于2019-10-20
得票数 0
2
回答
火花放电
中
RDD到DF
的
不完全转换
、
、
使用PySpark 1.6.3,我试图将RDD转换为
Dataframe
。这是在齐柏林飞艇笔记本上运行
的
测试代码。感兴趣
的
是rdd_ret。将生成输出
Dataframe
对象,但我试图在其上运行
的
任何操作(.show();.count();.filter())都会在底部产生相同
的
堆栈跟踪。我不明白在这种情况下NoneType可能是什么?当然,Row对象
中
的
一些
值
可能是错误
的
,但是为了计数或显示,您应该迭代
Data
浏览 0
提问于2018-06-21
得票数 2
1
回答
PySpark替换()函数不使用空
值
替换整数
、
、
、
、
注意:这是用于
Spark
2.1.1.2.6.1.0-129my_df = my_df.na.replace(0, None) File "<stdin>", line 1, in <module> File"/usr/hdp/
浏览 4
提问于2021-10-24
得票数 0
回答已采纳
1
回答
用户定义函数返回序列
、
、
该函数将列名与列
值
连接起来,然后以行方式连接生成
的
字符串。']}) d2 =
dataframe
.astype(str).radd(
dataframe
.columns + ':')def get_
浏览 3
提问于2021-07-21
得票数 2
回答已采纳
1
回答
pyspark 1.3.0将数据帧保存到配置单元表
中
、
、
177070 我正在尝试将该DF保存到不存在配置单元表
中
"write" among (IMSI, Date, Hour, TimeInCluster, Cluster, Xcluster, Ycluster); at org.apache.
spark
.sql.
DataFrame
$$anonfun$resolve$1.apply(
DataFrame
.
浏览 0
提问于2017-01-20
得票数 0
1
回答
对象
中
没有属性“map”错误
的
pyflem2.4.4
中
的
、
、
、
我正在使用python2.7运行
Spark
2.4.4,IDE是
py
魅力。.ʽ|!from pyspark.sql import SparkSession .builder \ .config("
spark
.some.config.option", "some
浏览 2
提问于2019-09-22
得票数 0
回答已采纳
1
回答
将数据从Pyspark 1.5
中
的
oracle数据库中提取到数据
中
、
、
、
、
我想从oracle数据库
中
检索数据。我
的
主要问题是创建jdbc url。 at org.apache.
spark
.sql.
DataFrame
.collect(
DataFrame
.
浏览 2
提问于2018-10-06
得票数 1
1
回答
在PySpark中使用Scala对象时出错
、
、
、
以下是Scala
中
的
代码 val usedNames = new mutable.HashSet[String]()}我刚刚复制了几行flattenSchema()方法在火花提交中导入jar之后,我尝试在PySpark
中
调用相同
的</e
浏览 8
提问于2020-04-07
得票数 0
回答已采纳
2
回答
Python
Spark
查询配置单元仅返回架构
、
、
、
、
当我从Hive中选择data时,它会返回一个
dataframe
,但我不能访问模式以外
的
任何内容。")data.show()<class 'pyspark.sql.
dataframe
.
DataFrame
'> 如果我试图显示数据帧,它会返回一个引用
dataframe
.
py</
浏览 1
提问于2018-04-19
得票数 0
2
回答
为什么dropna()不能工作?
、
、
系统:
Spark
1.3.0 (Anaconda Python dist.)在Cloudera Quickstart VM 5.4上from pyspark.sql_jdf.apply(name) File "/usr/lib/
spark
/python/lib/
py
4j-0.8.2.1-src.zip/
py
4j/java_gateway.
py
浏览 3
提问于2015-05-15
得票数 3
回答已采纳
1
回答
无法推断Parquet
的
架构。必须手动指定。
、
、
、
、
我正在从电子病历笔记本
中
运行所有的代码。pyspark.zip/pyspark/sql/readwriter.
py
", line 353, in parquet File "/usr/lib/
spark
/python/lib/
py
4j-0.10.9-src.zip/
py
4j/java
浏览 3
提问于2021-01-01
得票数 3
回答已采纳
1
回答
Spark
DataFrame
ArrayType或MapType用于检查列
中
的
值
、
、
、
、
例如,我想获取其中包含特定ID
的
行数。from pyspark.sql.types import BooleanType from pyspark.sql.functions imp
浏览 1
提问于2018-10-30
得票数 2
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券