腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Pyspark
:
基于
其他
pyspark
数据
框架
中
的
列名
创建
一个
pyspark
数据
框架
我有两个
pyspark
dfs df1有列- a,b,c,d,e,f df2有列- c,d,e(
列名
不断动态变化) 我想要
一个
从df1
中
提取
的
基于
df2
中
的
列名
的
df3
数据
帧。所以基本上我想 根据df2
中
的
列从df1
中
选择列(df2列不断变化) 在上面的示例
中
,结果df应该具有列- c,d,e(从df1
中
提取)
浏览 11
提问于2020-08-02
得票数 0
回答已采纳
2
回答
将
PySpark
数据
帧转换为
PySpark
.pandas
数据
帧
、
、
在链接
中
,用户可以在Spark3.2
中
的
PySpark
之上与熊猫合作。是否需要很长时间才能将
PySpark
数据
帧转换为
PySpark
熊猫
数据
框架
?我知道将
PySpark
数据
帧转换为熊猫
数据
框架
需要很长时间。
浏览 9
提问于2022-03-02
得票数 1
回答已采纳
1
回答
` `
pyspark
‘与` `
pyspark
’包
、
、
、
pyspark
mllib和
pyspark
ml包有什么区别?: 我发现
的
一个
不同之处是,
pyspark
ml实现了
pyspark
.ml.tuning.CrossValidator,而
pyspark
我
的
理解是,如果在Apache
框架
上实现算法是mllib,那么库应该使用,但似乎存在分裂?
浏览 4
提问于2017-04-05
得票数 18
回答已采纳
1
回答
在同一本笔记本中集成Python
、
、
、
我在X公司
的
分析小组工作。我们使用微软
的
Azure -
数据
砖。在这里,我们必须使用
PysPark
。比方说,在不同
的
块之后,我们有了
一个
最终
的
数据
框架
。我必须利用
基于
这个
数据
框架
的
可视化。我认为Python
中
的
Seaborn库应该比
Pyspark
的
任何库在
数据
可视化方面更有用。
浏览 1
提问于2022-11-18
得票数 0
回答已采纳
1
回答
如何使用
Pyspark
的
模式从
Pyspark
数据
帧
创建
hive表?
、
我已经使用以下代码
创建
了
数据
框: import
pyspark
spark =
pyspark
.sql.SparkSession(sc) data = [('A', 'B', 1), ('A', 'B', 2), ('A
浏览 12
提问于2020-06-15
得票数 0
2
回答
PySpark
DataFrame:根据列值按行排序
列名
、
、
我是
PySpark
的
初学者,正在为我
的
问题寻找
一个
解决方案。实际上,我想按
列名
对
列名
进行排序。我
的
PySpark
数据
框架
如下所示:| ID| a| b| c|| 0| 5| 2| 1| | 1| 3|
浏览 5
提问于2020-09-01
得票数 0
回答已采纳
2
回答
如何获得
pyspark
数据
帧
的
相关矩阵?
、
我有
一个
很大
的
pyspark
数据
框架
。我想得到它
的
相关矩阵。我知道如何使用pandas data frame.But获取它,我
的
数据
太大了,无法转换为pandas。所以我需要用
pyspark
数据
框架
得到结果。我搜索了
其他
类似的问题,答案对我不起作用。有人能帮我吗?谢谢!
数据
示例:
浏览 20
提问于2018-09-07
得票数 11
回答已采纳
1
回答
Pyspark
管道在pandas
数据
帧上
的
应用
、
、
、
我有
一个
pyspark
管道(包含估算和
一个
机器学习模型)和
一个
pandas
数据
帧。我是否可以在不将其转换为
Pyspark
dataframe
的
情况下将管道应用于此pandas
数据
帧?如果不可能,我如何有效地使用
pyspark
管道来生成对pandas
数据
帧
的
预测?
浏览 3
提问于2021-09-13
得票数 1
1
回答
pyspark
每n行聚合一次
、
、
我是
pyspark
的
新手,正在尝试重新
创建
我用python编写
的
代码。我正在尝试
创建
一个
新
的
数据
框架
,其中包含旧
数据
框架
中
每60个观察值
的
平均值。下面是我用旧
的
python实现
的
代码:我正在为如何使用
p
浏览 5
提问于2018-08-29
得票数 2
5
回答
删除星火中
数据
帧列值
中
的
空白
、
、
、
我有
一个
模式
的
数据
框架
(business_df):|-- categories: array (nullable =string (nullable = true)|-- name: string (nullable = true) 我希望
创建
一个
新
的
数据
框架
(new_df),
浏览 10
提问于2016-02-21
得票数 9
回答已采纳
1
回答
TypeError: ufunc循环不支持没有可调用arccos方法
的
decimal.Decimal类型
的
参数0
、
、
我正在尝试将
Pyspark
数据
框架
转换为
一个
熊猫
数据
框架
。 process() File "/usr/local/src/spark/python/lib/
pyspark
浏览 3
提问于2019-12-06
得票数 0
1
回答
将重复值转换为两个不同
的
列
、
、
、
、
我将以下
数据
导入到
PySpark
数据
框架
中
:from
pyspark
.sql.functions import *spark = SparkSession.builder.master("local[4]").appName("
pyspark
").getOr
浏览 10
提问于2022-05-05
得票数 1
回答已采纳
2
回答
从
PySpark
数据
帧获取第
一个
元素
、
、
、
我有
一个
PySpark
数据
框架
,它只包含
一个
元素。如何从
数据
帧中提取数字? 例如,如何从
PySpark
数据
帧
中
获得数字5.0?
浏览 0
提问于2022-07-13
得票数 1
回答已采纳
3
回答
蜂巢兽人返回零
、
、
、
我正在
创建
hive外部表ORC (位于S3上
的
ORC文件)。命令运行查询后
的
:|有趣
的
是,返回
的
记录数量为10,而且它是
浏览 7
提问于2017-10-24
得票数 1
1
回答
使用配置单元元
数据
读取HDFS文件-
Pyspark
、
、
、
、
我是
PySpark
新手,正在尝试读取HDFS文件(上面
创建
了hive表)并
创建
PySpark
数据
帧。通过
PySpark
读取配置单元表非常耗时。有没有什么方法可以动态获取hive
列名
(用作dataframe
中
的
模式)?我希望将文件位置、表名和
数据
库名作为输入传递给aa程序/函数,以便从配置单元元
数据
(可能是元
数据
xml)
中
获取模式/
列名<
浏览 15
提问于2019-03-06
得票数 0
回答已采纳
1
回答
Spark SQL更新/删除
、
、
、
、
目前,我正在做
一个
使用
pySpark
的
项目,它读取一些Hive表,将它们存储为
数据
帧,并且我必须对它们执行一些更新/过滤。我正在不惜一切代价避免使用Spark语法来
创建
一个
框架
,该
框架
只接受参数文件
中
的
SQL,该参数文件将使用我
的
pySpark
框架
运行。现在
的
问题是,我必须在我
的
最终
数据
帧上执行更新&
浏览 7
提问于2019-11-15
得票数 1
1
回答
Pandas和Pandas被证明可以一起工作吗?
、
、
、
、
我面临许多问题,集成/添加Pandas现有代码
的
Pandas代码。2)如果我选择使用Pandas和pandas在同一代码
中
处理不同
的
数据
集,当通过map调用
的
函数包含任何熊猫
数据
时,
Pyspark
转换(如map)似乎根本不起作用。我在Python
中
已有使用熊猫和numpy
的
代码,并且在一台机器上工作得很好。我最初试图将整个代码转换为
的
尝试失败了,因为不支持Pandas所做
的
许多操作。现在,
浏览 2
提问于2017-12-26
得票数 6
6
回答
如何在python/
中
的
所有列
中
添加后缀和前缀
、
、
、
我有
一个
由100多个列组成
的
数据
框架
。我想要做
的
是,对于所有的
列名
,我想在
列名
的
开头和
列名
的
末尾添加回滴答(`)。column name is testing user.I want `testing user` 有没有一种方法可以在
pyspark
/python
中
做到这一点。当我们应用代码时,它应该返回
一个
数据
帧。
浏览 3
提问于2017-04-01
得票数 18
回答已采纳
1
回答
如何连接s3文件而不访问密钥详细信息
、
、
、
我们有一台unix机器,可以直接访问我们
的
s3桶。我们能够从unix机器上运行所有cli命令,比如"aws s3 ls“。现在,我们需要从那里读取
一个
文件,并使用
pyspark
创建
一个
星火
数据
框架
。因此,现在需要对unix框进行ssh连接,并读取该文件并
创建
星火
数据
框架
。 有没有人能帮助我们如何访问s3而不用使用
pyspark
访问关键细节。
浏览 2
提问于2022-10-19
得票数 0
2
回答
在
pyspark
中
创建
图形帧时出错
、
、
我正在尝试运行下面的代码,以便在
pyspark
中
创建
图形
框架
,这是在我
的
本地设置
的
。但我错了。我使用
的
是火花-2.4.0-bin-hadoop2.7版本。from
pyspark
.sql import SparkSession#spark = SparkSession.builder.appName
浏览 1
提问于2019-01-12
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券