腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
PySpark
-
将
数组
结构
转
换为
列
名为
我
的
结构
、
我
试图通过
数组
的
列
来转换我
的
结构
数组
,其中
我
想用;
我
的
数据是这样
的
root |-- contents_json}] |+--------------------------------------------+ <
浏览 6
提问于2021-10-20
得票数 0
1
回答
Rails3.2模式
转
储
将
所有UUID
列
转
换为
文本,并使用postgres_ext gem破坏
数组
声明
、
、
、
将
Ruby2.0.0-P195与
的
Rails 3.2.13和v0.3.1一起使用。
我
似乎经常在使用Rails
的
模式
转
储(而不是SQL
结构
转
储)中遇到问题,在Rails中,模式
转
储程序
将
UUID
列
转
换为
文本
列
,并将
数组
转
换为
缺省值为"{}"
的
文本
列
。}" + t.text
浏览 1
提问于2013-05-24
得票数 5
1
回答
pyspark
中
的
to_json包含空值,但我需要空值作为空
、
、
、
、
我
正在使用
pyspark
中
的
to_json
将
dataframe中
的
结构
列
转
换为
json
列
,但是在json中忽略了少数
结构
字段中
的
空值,
我
不希望这些空值被忽略。
浏览 6
提问于2020-10-14
得票数 0
1
回答
如何实现自定义
的
Pyspark
分解(用于
结构
数组
),1个分解中有4
列
?
、
、
、
我
正在尝试在
Pyspark
中实现一个自定义
的
分解。
我
有4
列
,它们是具有几乎相同模式
的
结构
数组
(一
列
结构
包含
的
字段比其他三
列
少一个)。 对于我
的
DataFrame中
的
每一行,
我
有4
列
结构
数组
。
列
是学生、teaching_assistants、教师、管理员。 学
浏览 22
提问于2020-10-06
得票数 3
回答已采纳
2
回答
在
pyspark
中展平
结构
的
数组
、
、
、
我
使用spark-xml包
将
一个XML文件转
换为
dataframe。数据帧
的
结构
如下: |-- results: struct (nullable = true) |category
列
(它可能会在categories下出现多次): df.select((col('results.result.categories.category')).alias("resu
浏览 0
提问于2020-02-24
得票数 4
1
回答
激发
列
中每个元素
的
scala笛卡儿积
、
、
、
我
有一张数据文件,就像:a [p1,p2,p3]期望
的
产出是:p1p2 ap2 p3 a
我
做了一些研究,
我
认为
将
df转
换为
rdd,然后
将
flatMap与cartesian产品进行转换是解决这个问题
的
理想方法然而,
我
不能把它们结合在一起。 谢
浏览 2
提问于2018-09-24
得票数 0
回答已采纳
1
回答
Pyspark
:从列表
的
RDD创建spark数据帧,其中列表
的
一些元素是对象
、
、
、
、
我
正在尝试
将
pandas.DataFrame代码转
换为
等效
的
pyspark
DataFrame。
我
有一个以下格式
的
RDD。[2, 'b', {'c': 1, 'd':3}],内部列表中
的
第
浏览 1
提问于2018-04-07
得票数 1
1
回答
如何在
PySpark
DataFrame中将
列
转
置为行?
、
、
、
举个例子,
我
有这个DF +----+------+------+-------++----+------+------+-------+| 2 | d | e | f || id | key | value|
浏览 51
提问于2021-04-15
得票数 1
1
回答
将
列表列转
换为
嵌套
结构
列
、
、
、
、
我
正在尝试
将
一组丑陋
的
文本字符串转
换为
具有代表性
的
PySpark
数据格式。最后一步是
将
包含字符串列表
的
列
转
换为
包含嵌套行
结构
的
列
。对于列表中
的
每个字符串,
我
使用python字典理解将其规范化为相同
的
字段。当我试图通过列上
的
udf来转换它时,它会失败。
我
的
<
浏览 2
提问于2018-10-20
得票数 1
回答已采纳
2
回答
DataBricks:在arrays_zip函数中使用变量
、
我
可以知道我们是否可以在arrays_zip函数中使用变量/
数组
吗?例如,
我
声明并
数组
array1="col1","col2“有没有人有这个想法?
浏览 0
提问于2019-10-14
得票数 0
1
回答
Pyspark
SQL:
将
表与
结构
数组
转
换为
列
、
、
我
有一个包含2
列
(string、array<struct<type=string、cnt=int>>)
的
HIVE-table,如下所示:| id1 || {type=A,cnt=4},{type=B,cnt=2}| id3 || {type=E,cnt=1}
我
需要将它转
换为
包含分隔
的
int
列
的</e
浏览 0
提问于2020-10-16
得票数 0
0
回答
PySpark
: DataFrame -
将
结构
转
换为
数组
、
、
、
我
有一个如下
结构
的
数据帧: |-- index: long (nullable = true) |-- topicDistributiontrue) |-- wiki_index: string (nullable = true) | |-- element: double (contain
浏览 1
提问于2017-12-03
得票数 2
回答已采纳
2
回答
将
数组
列
转
换为
PySpark
数据帧中
的
结构
数组
、
、
、
、
我
有一个包含3
列
的
Dataframe | str1 | array_of_str1 | array_of_str2 || Matteo | [Size, Color] | [M, Red] |
我
想添加一个
结构
类型中包含3
列
的
数组
列
| s
浏览 16
提问于2020-01-06
得票数 1
回答已采纳
1
回答
如何访问
pyspark
dataframe中
的
结构
元素?
、
、
我
有下面的模式,用于
pyspark
dataframe |-- maindata: array (nullable = true)给出df.select(F.col("maindata")).show(1,False)收到
的
特定行
的
一些数据04-06T13:02:08.050], [t7, 0, , 2019
浏览 6
提问于2020-06-25
得票数 1
回答已采纳
1
回答
用数据库中
的
pyspark
将
纳秒值转
换为
日期时间
、
、
、
我
正在尝试重新创建
我
已经用Python使用Databricks完成
的
一些工作。
我
有一个数据,其中有一个
名为
“time”
的
列
,以纳秒为单位。在Python中,
我
使用以下代码
将
字段转
换为
适当
的
日期时间值: # Convert time field from nanoseconds into datetimedf["time"] = pd.to
浏览 5
提问于2022-07-05
得票数 0
回答已采纳
1
回答
如何按
列
对
pyspark
中数据框进行分组,并获得以该列为键、以记录列表为其值
的
字典?
、
、
、
我
有一个这样
的
数据框架- timeB | 2021-03-10 03:21:06 为此,
我
正在编写一个Gluejob。<em
浏览 0
提问于2021-04-09
得票数 0
2
回答
如何在SWIFT2.0中
将
结构
保存为NSUserDefaults
、
、
我
有一个
名为
Jar
的
结构
,
我
想将它们
的
数组
保存到NSUserDefaults中。以下是jar
结构
代码: let amount: Int self.name = name }
我
相信,为了能够保存它,
浏览 0
提问于2015-09-19
得票数 1
3
回答
将
JSON
数组
分解成行
、
、
、
、
我
有一个dataframe,它有两个
列
"ID“和"input_array”(值是JSON
数组
)。ID input_array2 [ {“A”: 800, “B”: 900} ]ID A B1 500 600
我
试过from_json,explode函数。但是
数
浏览 13
提问于2022-10-05
得票数 -1
回答已采纳
2
回答
Apache :无法
将
分组数据保存为CSV
、
、
、
我
想做一件简单
的
事。
我
想把所有的事件统计成2分钟
的
时间戳。+--------------------+-----+但现在
我
写了,File "/usr/hdp/cu
浏览 1
提问于2018-05-15
得票数 1
回答已采纳
1
回答
将
字符串从K转
换为
数千等,并删除中字符串之间
的
空格。
、
、
我
想请求您
的
帮助,以转换字符串在一个
列
中
的
,
Pyspark
。 例如,
我
有一个
名为
"df“
的
dataframe,它具有以下
结构
。
我
在这里要做
的
是:(1)
将
字符串从K转
换为
数千,M转
换为
数百万,B转
换为
数十亿,(2)删除“数字”
列
中字符串之间
的
空格,然后(3)将其数据类型更改为双倍。您可
浏览 1
提问于2020-09-29
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券