腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
pyspark
datafrme
中将
行
转
换为
列
python
、
apache-spark
、
pyspark
我目前的
pyspark
dataframe是这样的: Region Location Month Services Type values_in_millions values_in_percent
浏览 34
提问于2021-11-23
得票数 1
回答已采纳
2
回答
在
pyspark
中将
行
转
置为
列
pyspark-sql
我有dataframe track_log,其中
列
是------------------------------------------------------------------需要使用
pyspark
浏览 0
提问于2019-07-27
得票数 0
2
回答
以每列为关键字将
PySpark
数据帧转
换为
JSON
apache-spark
、
pyspark
、
apache-spark-sql
、
databricks
我正在研究
PySpark
。我有一个数据框,我需要将其
转
储为JSON文件,但JSON文件应具有以下格式,例如- {"Column 1": [9202, 9202, 9202, ....], "Column 2": ["FEMALE因此,每
列
应该有一个键,相应的值应该包含该
列
中的所有值的列表 我尝试将其转
换为
Pandas数据帧,然后
在
将其作为JSON
转
储之前转
换为
字典,并成功地完成了转换,但由于数据量非常大
浏览 14
提问于2019-12-18
得票数 1
回答已采纳
2
回答
在
Spark SQL
中将
行
转
置为
列
(
pyspark
)
sql
、
pyspark
、
apache-spark-sql
任何关于如何将
行
转
换为
列
的想法都会很有帮助。
浏览 0
提问于2017-10-25
得票数 1
1
回答
wijmo grid -
在
wijmo网格
中将
行
转
换为
列
,将
列
转
换为
行
wijmo
、
wijmo-grid
我
在
我的angular4应用中使用了wijmo grid。问题是,
在
wijmo网格
中将
行
转
换为
列
,将
列
转
换为
行
。如何实现wijmo网格的
转
置?
浏览 11
提问于2018-12-09
得票数 0
0
回答
在
pyspark
中将
yyyymmdd转
换为
MM-dd-yyyy格式
apache-spark
、
pyspark
、
apache-spark-sql
、
pyspark-sql
我有一个很大的数据帧df,其中包含yyyymmdd格式的date
列
,如何在
pySpark
中将
其转
换为
MM-dd-yyyy。
浏览 1
提问于2016-12-30
得票数 3
回答已采纳
1
回答
如何在
PySpark
DataFrame
中将
列
转
置为
行
?
apache-spark
、
pyspark
、
pivot
、
transpose
--+| 2 | d | e | f || id | key | value|| 1 | val1 | a | |
浏览 51
提问于2021-04-15
得票数 1
1
回答
FormatNbr(DTSSource("Commission_Rate_2"),8,4)
在
informatica中的等效函数是什么?
informatica
、
iics
在
DTS函数DTSDestination("Commission_Rate_2") = FormatNbr(DTSSource("Commission_Rate_2"),8,4)中,将输入652.5
转
换为
06525000,将9.75
转
换为
00097500,
在
informatica
中将
列
值转
换为
652.5,并将所需输出转
换为
06525000。
浏览 11
提问于2022-07-26
得票数 0
回答已采纳
2
回答
将
行
值制表为
列
值
sql
、
sql-server
在
SQL Server
中将
行
值转
换为
列
值我需要在SQL Server
中将
example Table1
转
换为
Table2。其他解决方案为每个服务器值显示单独的
列
,导致每个服务器A、B、C和D分别有单独的
列
。相反,如果B是唯一的服务器,我需要它显示
在
列
Server1中,而不是
列
ServerB中,如建议的解决方案所示。
浏览 1
提问于2016-12-17
得票数 1
1
回答
如何在
PySpark
中更改向量
列
的d类型?
python
、
pyspark
、
dtype
我有一个稀疏的向量
列
,我通过UDF将它转换成密集向量。我想将向量值的类型从float32
转
换为
float64 (
PySpark
稠密向量标准dtype是float64)。
浏览 4
提问于2022-07-12
得票数 -1
2
回答
如何在没有透视表的mysql查询
中将
行
转
换为
列
php
、
mysql
、
sql
如何在没有透视的mysql查询
中将
行
转
换为
列
。我有一个表模式,比如ID SchoolName *********************** 我想把这个
转
置为
浏览 2
提问于2013-08-23
得票数 0
1
回答
在
PySpark
中存储大型SparseMatrix的最佳有效格式是什么
python
、
apache-spark
、
pyspark
、
sparse-matrix
我有一个100k
行
,20M
列
的
pyspark
.mllib.linalg.SparseMatrix。
在
PySpark
中将
其保存为稀疏矩阵的最佳格式是什么?
浏览 31
提问于2018-06-05
得票数 1
回答已采纳
1
回答
在
SQLite
中将
数字转
换为
文本
sqlite
、
casting
在
SQLite
中将
数值
列
转
换为
文本时,通过
在
末尾追加.0来显示结果值。例如:2017年为2017.0,同时将其转
换为
文本。预期结果: 2017年
转
换为
文本将保持2017年。
浏览 2
提问于2017-06-01
得票数 1
1
回答
spark将日期时间转
换为
时间戳
apache-spark
、
datetime
、
pyspark
、
timestamp
我
在
pyspark
dataframe中有一个
列
,它的格式是2021-10-28T22:19:03.0030059Z (字符串数据类型)。如何在
pyspark
中将
其转
换为
时间戳数据类型?
浏览 173
提问于2021-11-05
得票数 1
2
回答
在
PySpark
中将
多个
列
转
换为
字符串的有效方法
python
、
types
、
casting
、
pyspark
在
SO上有很好的记录(,,,.)如何通过类推将单个变量转
换为
string类型的
PySpark
:spark_df= spark_df.withColumn('name_of_column', spark_df[name_of_column].cast(StringType()))使用for 循环的 --代码
浏览 3
提问于2018-05-16
得票数 3
回答已采纳
3
回答
PySpark
:如何
转
置数据帧中的多个
列
apache-spark
、
pyspark
、
apache-spark-sql
、
pivot
、
transpose
我是Spark的新手,需要使用
PySpark
或Spark Sql将以下输入数据帧
转
置为所需的输出df (从
行
到
列
)的帮助。所需的输出(
转
置)数据......如果我可以根据我们的要求旋转输入数据(
列
),那就更好了。
浏览 1
提问于2020-11-27
得票数 3
3
回答
正在获取TypeError("StructType无法接受类型%s中的对象%r“% (obj,类型(Obj)
python
、
apache-spark
、
dataframe
、
pyspark
、
pyspark-sql
43087,6980.399902,7003.890137,6975.540039,6994.759766,6994.759766,2144360000', '43088,6991.25,6995.879883,6951.490234,6963.850098,6963.850098,2071060000']schema = StructType().add("date", StringType())\ .ad
浏览 0
提问于2018-01-23
得票数 4
2
回答
将熊猫
列
从int64
转
换为
datetime64的问题
python
、
pandas
、
int64
、
datetime64
我正试图
在
熊猫
中将
一
列
年值从int64
转
换为
datetime64。这是
在
我使用pd.to_datetime(dataset.Year, format='%Y')将
列
从int64
转
换为
datetime64之后。我怎么才能避开这一切?
浏览 10
提问于2022-07-28
得票数 1
回答已采纳
2
回答
在
pyspark
中将
行
转
换为
RDD
lambda
、
pyspark
df1 = df0.rdd.filter(lambda x: 'VS' in x.MeterCategory)
行
的None, 100=None, 1000=None, 10000=None, 1000000=None, 100000000=None, 10235=None, 1024=None)]我一直
在
尝试一些方法
浏览 4
提问于2017-03-14
得票数 0
回答已采纳
1
回答
如何在
pyspark
中将
行
转
换为
多
列
?
pyspark
如何将此数据帧转
换为
所需的数据帧?
浏览 0
提问于2019-07-08
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
肝了3天,整理了90个Pandas案例
一文读懂PySpark数据框
一文读懂 PySpark 数据框
Excel 一维表和二维表相互转置,借助一下 Word,简单得飞起
Excel制作成绩单de小秘密!
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券