腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
以每列为关键字
将
PySpark
数据帧转
换为
JSON
、
、
、
我正在研究
PySpark
。我有一个数据框,我需要
将其
转
储为JSON文件,但JSON文件应具有以下格式,例如- {"Column 1": [9202, 9202, 9202, ....], "Column 2": ["FEMALE因此,每
列
应该有一个键,相应
的
值应该
包含
该
列
中
的
所有值
的
列表
我尝试
将其
转
换为
Panda
浏览 14
提问于2019-12-18
得票数 1
回答已采纳
1
回答
将
列表
列转
换为
嵌套结构
列
、
、
、
、
我正在尝试
将
一组丑陋
的
文本
字符串
转
换为
具有代表性
的
PySpark
数据格式。最后一步是
将
包含
字符串
列表
的
列
转
换为
包含
嵌套行结构
的
列
。对于
列表
中
的
每个
字符串
,我使用python字典理解
将其
规范化为相同
的
字段。
浏览 2
提问于2018-10-20
得票数 1
回答已采纳
1
回答
pyspark
将
数组转
换为
循环中
的
字符串
、
、
、
我有一个心理公园数据框架,它有
字符串
,整型和数组类型
的
列
。我尝试对所有
列
运行for循环,以检查它们是否为任何数组类型
的
列
,并
将其
转
换为
字符串
。然后,
pyspark
数据框
中
的
输出应该
包含
int、string
列
。 下面的代码
将
只返回从数组转
换为
字符串
的
列
。如何<
浏览 20
提问于2021-04-11
得票数 0
回答已采纳
1
回答
Pyspark
将
包含
字符串
的
列
转
换为
字符串
列表
,并
将其
保
存到
同一
列
中
、
、
我有一个两
列
的
Dataframe。我想执行一个操作,
将
Dataframe
列
Col2
转
换为
以下格式- Col1 | Col2002 |["This", "is", "the", "second", "
浏览 13
提问于2021-06-22
得票数 0
回答已采纳
1
回答
如何在python中将
列表
转
换为
字符串
、
我
将
输出作为
列表
值,如下所示(
列
1=‘a,b,c,d')如何使用python/
pyspark
来实现这一点?
浏览 3
提问于2022-09-15
得票数 -1
1
回答
如何使用python
将
列
中
的
字符串
数据转
换为
列表
、
、
、
我们需要将
字符串
数据从
列
转
换为
列表
格式。我们有一个
包含
7
列
的
csv格式文件,在这里我们需要更改类别
列
,并将数据保
存到
同一
个csv文件
中
。2,3,651,2,3categories["2","4"][&qu
浏览 2
提问于2020-09-10
得票数 0
3
回答
Pandas:有没有一种方法可以在不遇到AttributeError
的
情况下使用.str访问器来检查对象是否真的是一个
字符串
?
、
、
我使用toPandas()
将
pyspark
数据帧转
换为
pandas数据帧。但是,因为某些数据类型不对齐,所以pandas会将数据帧
中
的
某些列强制转
换为
object。我也不能使用.str.contains,因为即使
包含
数值
的
列
是dtype object,在使用.str时它也会出错。(作为参考,我尝试做
的
是,如果数据帧
中
的
列
实际上具有
字符串
值,则执行
浏览 1
提问于2020-06-23
得票数 1
1
回答
是否可以在
pyspark
中转换数据帧
的
多个
列
?
、
、
、
我有一个多
列
的
pyspark
dataframe,我需要将
字符串
类型转
换为
正确
的
类型,例如: 我现在就是这样做
的
df = df.withColumn(col_name, col(col_name).(col_date, col(col_date).cast('date') \ .withColumn(col_code, col(col_code).cast('bigint') 有没有可能创建一个
包含
类型
浏览 11
提问于2021-07-10
得票数 3
回答已采纳
1
回答
从
PySpark
中
的
复杂
列
中提取值
、
、
我有一个
PySpark
数据帧,它有一个复杂
的
列
,请参考下列值:1 [{"label":"animal","value":"cat"},{"label":null,"value":"George"}] 我想在
PySpark
dataframe
中
添加一个新
列
,它基本上将它转
换为
一个
字符串
<em
浏览 0
提问于2021-02-09
得票数 0
1
回答
如何在
pyspark
/python中将日期
列
从
字符串
转换到日期时间?
、
、
、
、
我有一个
包含
字符串
数据类型
的
日期
列
,当在
pyspark
中
推断时:如何
将
字符串
数据类型转
换为
日期时间?
浏览 18
提问于2022-10-25
得票数 0
回答已采纳
1
回答
pyspark
中
字符串
类型
的
列
中空格分隔值
的
最大值
、
、
我
的
dataframe中有一个
字符串
类型
的
列
,值为'1 1 1 3‘。我需要用
pyspark
中
的
值
的
最大值来更新
列
。 我尝试过使用UDF
将
字符串
转
换为
列表
,然后再转换回
字符串
。有没有更简单
的
方法 示例数据:enter image description here下面的链接 蒂娅。
浏览 18
提问于2021-10-08
得票数 0
回答已采纳
3
回答
如何在
pyspark
数据框中将
字符串
类型
的
列
转
换为
int形式?
、
、
我在
pyspark
有数据帧。它
的
一些数字
列
包含
'nan‘,所以当我读取数据
并
检查dataframe
的
模式时,这些
列
将
具有'string’类型。如何将它们更改为int类型。我
将
'nan‘值替
换为
0,并再次检查了架构,但同时也显示了这些
列
的
字符串
类型。=True, inferSchema="true") data_df
浏览 2
提问于2017-10-26
得票数 64
1
回答
MATLAB
将
一个.mat文件保存为基于一个共同
列
的
较小文件
、
、
、
我有一个
包含
22
列
的
单元格数组。我希望读取单元格数组,
并
根据
列
2(以
字符串
格式
的
站点)
将其
分离为不同
的
.mat文件。基本上,这些数据
包含
了纽约各地网站一年来
的
信息。我希望分别保存每个站点
的
数据(找到具有相同
列
2
的
行
并
保存它们)。我还想将.mat文件转
换为
netcdf文件,这样不使用MATLAB的人也可以读取它,
浏览 1
提问于2013-10-04
得票数 0
回答已采纳
3
回答
包含
若干可能
的
两个字符代码
中
的
一个
的
自定义
字符串
列
的
PySpark
数据框
列
验证
、
、
、
我有一个很大
的
pyspark
数据帧。它有多个
字符串
类型
的
列
。我正在
将
这些
列
转
换为
预期
的
数据类型。除了一个表示公司内部两个字符代码集
的
列
之外,所有的代码看起来都很简单。我需要验证该
列
(在集合
中
),如果它无效,则
将其
替
换为
null。以下是我到目前为止所做
的
工作: myDfTyped = myDf.select(
浏览 0
提问于2017-09-05
得票数 0
1
回答
(Fluent) NHibernate -
将
Varchar映射到Int32
、
、
、
我们使用旧数据库,它将整数值保
存到
varchar
列
。我们需要将这个
列
映射到Int32属性,如果数据库
列
中
的
数据是数字或NULL,它就能很好地工作。但是,如果
列
包含
空
字符串
而不是null - nhibernate抛出不能
将其
转
换为
整数
的
错误,则会出现问题。 是否可以
将
类映射配置为自动
将
异常引发
的
所有值转
换为
某些默
浏览 2
提问于2009-04-09
得票数 1
回答已采纳
1
回答
如何在自定义数据上运行熊猫read_csv
的
解析逻辑?
、
包含
许多解析逻辑,用于检测CSV
字符串
并
将其
转
换为
数值和日期时间Pythong值。我
的
问题是,有没有办法也在
包含
字符串
数据
的
列
的
DataFrame上调用相同
的
转换,但是DataFrame不是存储在CSV文件
中
,而是来自不同
的
(未解析
的
)源?因此,
将
这样
的
DataFrame保
存到
CSV文件<em
浏览 0
提问于2019-06-11
得票数 0
3
回答
从DataFrame中提取
字符串
、
我希望从我
的
pyspark
dataframe
中
的
一
列
XML数据(
字符串
)中提取一个
字符串
。我希望为每个客户提取ProductName
的
价值。以下是数据
的
示例: A, <XmlData ProductName="123">....</XmlData> 我想将我
的
数据帧转
换为
包含
一个
浏览 3
提问于2020-06-18
得票数 0
1
回答
火花放电管道
中
的
用户定义变压器
、
、
、
、
我正在尝试创建一个
pyspark
管道来运行一个分类模型。我
的
数据集有一个
列
,它是一个
字符串
。因此,在应用管道模型之前,我使用“StringIndexer”
将其
转
换为
数字。我
的
管道只
包含
两个阶段StringIndexer和ClassificationModel StringIndexer正在创建一个带有索引
的
新
列
,但是旧
列
也保留了。我想介绍一个新
的
变压器在管道
中
,以
浏览 0
提问于2017-07-19
得票数 2
回答已采纳
1
回答
AWS
pySpark
:
将
字符串
列拆分为新
的
整数数组
列
、
、
、
我试图使用Glue和
pySpark
在AWS上执行ETL工作,但不幸
的
是,我对此非常陌生。 在大多数情况下,我没有任何问题,使用胶水动态数据,以执行应用程序和一些其他
的
转换,我必须执行。但是,我面临一个特定
列
的
问题,必须
将其
从
字符串
转
换为
整数数组。在这个
列
value
中
,我们
将
数据类型设置为string,它实际上是一个转
换为
string并由空格分隔
的
整数数组,例如,v
浏览 5
提问于2020-04-20
得票数 2
回答已采纳
2
回答
在
PySpark
中将多个
列
转
换为
字符串
的
有效方法
、
、
、
在SO上有很好
的
记录(,,,.)如何通过类推
将
单个变量转
换为
string类型
的
PySpark
:spark_df类型
的
列
时,有几种方法可以实现它:微不足道
的
例子: to_str = ['age', 'weight
浏览 3
提问于2018-05-16
得票数 3
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
肝了3天,整理了90个Pandas案例
一个Python大数据处理利器:PySpark入门指南
使用Pandas清理货币数据
SQLite3的数据类型-动态数据类型
字符拆分的模式化公式用法,5.2%的人还不会
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券