腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(5232)
视频
沙龙
1
回答
将
Numpy
数组
追加到
Pyspark
Dataframe
中
python
、
python-3.x
、
apache-spark
、
pyspark
、
apache-spark-sql
我需要在
PySpark
数据帧中追加一个
NumPy
数组
。array_var38mc = np.isclose(train3.select("var38").rdd.flatMap(lambda x: x).collect(), 117310.979016494) 输出是一个对象
numpy
.ndarray,如下面的[True, False, True] 接下来,我尝试附加一个
Numpy
数组
,该
数组
以前是用同一个
PySpark
.
D
浏览 7
提问于2020-12-08
得票数 0
回答已采纳
1
回答
pandas数据帧行使用sklearn进行缩放
python
、
python-3.x
、
dataframe
、
scikit-learn
如何将
sklearn缩放器应用于pandas数据帧的所有行。这个问题与相关。
如何将
sklearn缩放器应用于一行的所有值?
浏览 11
提问于2019-11-13
得票数 1
回答已采纳
1
回答
如何将
表达式iloc从pandas转
换为
Pyspark
Dataframe
?
python
、
pandas
、
pyspark
如何将
pandas表达式转
换为
pyspark
,这似乎不起作用,然后将
dataframe
转
换为
数组
?--+-----+df = df.iloc[-N:, :] #expression in pandas df = df.collect()[-N:][:] # expression in
Pyspark
浏览 11
提问于2021-02-14
得票数 0
回答已采纳
1
回答
使用
PySpark
并行化自定义函数
python
、
pyspark
我熟悉使用UDF将自定义函数逐行应用于
DataFrame
。但是,我想知道
如何将
自定义函数并行应用于我的
DataFrame
的不同子集。下面是一个简化的例子:import pandas as pd
浏览 1
提问于2018-07-20
得票数 2
2
回答
如何将
pyspark
dataframe
列转
换为
numpy
数组
python
、
numpy
、
apache-spark
、
pyspark
我正在尝试将一个大约有9000万行的
pyspark
dataframe
列转换成一个
numpy
数组
。 我需要
数组
作为scipy.optimize.minimize函数的输入。我尝试过转
换为
Pandas和使用collect(),但这些方法非常耗时。 我是
PySpark
的新手,如果有更快更好的方法,请帮助我。 谢谢 这就是我的数据帧的样子。
浏览 138
提问于2019-09-30
得票数 3
回答已采纳
2
回答
如何将
numpy
数组
转
换为
pyspark
dataframe
?
python
、
pyspark
、
pyspark-dataframes
我想把我的results1
numpy
数组
转换成一个数据帧。我想将上面的代码转
换为
pyspark
RDD,其中包含标记为"limit“(元组中的第一个值)和"probability”(元组中的第二个值)的列。from
pyspark
.sql import SparkSession sc=spark.sparkContext
浏览 45
提问于2020-10-28
得票数 0
2
回答
如何在火花放电中将密集向量的关系式转换成
DataFrame
?
apache-spark
、
pyspark
、
apache-spark-mllib
、
apache-spark-ml
、
apache-spark-2.0
0.0, 0.0]), DenseVector([0.0, 1.0, 1.0, 0.0, 0.0, 1.0, 0.0, 0.0, 0.0, 0.0, 0.0, 1.0, 0.0])] raise TypeError("not supported type: %s" % type(obj))from
p
浏览 3
提问于2016-12-26
得票数 11
回答已采纳
3
回答
是否将
numpy
数组
转
换为
dataframe
列?
python
、
pandas
、
numpy
、
dataframe
如何将
numpy
数组
转
换为
dataframe
列。假设我已经创建了一个空的
dataframe
,df,并且我循环通过代码来创建5个
numpy
数组
。在for循环的每次迭代中,我希望将在该迭代中创建的
numpy
数组
转
换为
dataframe
中的一列。为了清楚起见,我不想在每次循环迭代时都创建一个新的数据帧,我只想在现有的列中添加一列。df = pd.
dataframe
()
浏览 6
提问于2017-06-08
得票数 9
2
回答
无法从列表中创建
dataframe
:
pyspark
python
、
apache-spark
、
pyspark
、
apache-spark-sql
但是,当我想使用以下命令创建一个
DataFrame
时:我收到一条错误消息: 如果我手动创建列表,我就没有问题。
浏览 1
提问于2016-08-07
得票数 7
回答已采纳
4
回答
将
numpy
数组
转
换为
数据帧
python
、
pandas
、
dataframe
、
numpy
我有一个
numpy
数组
,我想把它转换成一个
dataframe
。import
numpy
as npnparray = np.array([[1,2,3,4,5],[6,7,8,9,10]])
如何将
其转
换为
数据,其中数据将如下所示
浏览 6
提问于2020-12-15
得票数 1
回答已采纳
1
回答
如何在python中从多维
数组
中分配多个变量
python
有一个X
DataFrame
。我想这样做a,b,c。
浏览 3
提问于2021-02-07
得票数 2
回答已采纳
1
回答
如何将
熊猫系列
Numpy
对象转换成
Numpy
矩阵?
numpy
、
pandas
、
series
我发现很难将熊猫系列的大小M分别包含大小为N的
numpy
数组
转
换为
MxN大小的矩阵/
numpy
数组
/
dataframe
import pandas as pdd = pd.
DataFrame
({'grp': np.random.randint(1, 10, 1000), 'x':np.random.r
浏览 4
提问于2014-10-23
得票数 2
回答已采纳
2
回答
熊猫:在第n行后新造一栏
pandas
、
dataframe
我有下表作为数据框架。8158525616248298 提前谢谢。
浏览 2
提问于2022-10-17
得票数 -1
回答已采纳
4
回答
PySpark
计算相关性
python
、
apache-spark
、
pyspark
、
apache-spark-sql
、
apache-spark-mllib
我想使用
pyspark
.mllib.stat.Statistics.corr函数来计算
pyspark
.sql.
dataframe
.
DataFrame
对象的两列之间的相关性。
如何将
df['some_name']列转
换为
rdd of Vectors.dense对象?
浏览 12
提问于2016-06-03
得票数 16
回答已采纳
2
回答
Numpy
中一个矩阵对N的处理
python
、
arrays
、
numpy
、
matrix
给定大小为(n,)的
numpy
数组
,
如何将
其转
换为
大小为(n,1)的
numpy
数组
。原因是我试图将矩阵乘成大小为(n,)和(,n)的
numpy
数组
,以获得(n,n),但当我这样做时:上面说你做不到。作为一个事实,我知道
转
置(n,)没有任何作用,所以最好改变(n,)并使它们成为(n,1),并且一起避免这个问题。
浏览 6
提问于2014-03-13
得票数 4
回答已采纳
1
回答
PySpark
性能数据帧/向量与
Numpy
数组
apache-spark
、
pyspark
、
apache-spark-sql
、
numpy-ndarray
、
pyspark-dataframes
我的项目包括目前在UDF中执行的
numpy
数组
和
numpy
矩阵之间的许多操作,您认为如果我们使用
PySpark
的内部结构,我们的性能会有所提高吗?(matrix -->
dataframe
,
numpy
array --> dense vectors)谢谢!
浏览 53
提问于2020-09-09
得票数 1
2
回答
ValueError:无法将字符串转
换为
浮动:“���”
python
、
dataframe
、
csv
、
data-formats
我有一个(2M,23)维
numpy
数组
X。它有一个d类型的<U26,即26个字符的unicode字符串。., '�', '��', '���']], dtype='<U26')X_f = X.astype(float)导入相关软件包from
pyspark</e
浏览 0
提问于2019-03-26
得票数 8
1
回答
如何将
多个
dataframe
列转
换为
一个
numpy
数组
列
numpy
、
pyspark
、
pyspark-dataframes
我有一个数据帧,如下所示 from
pyspark
import SparkContext, SparkConf,SQLContext config = SparkConfwithColumnRenamed("_2","word1").withColumnRenamed("_3","word2").withColumnRenamed("_4","word3") 现在我需要将第一列和其余列作为
n
浏览 18
提问于2019-10-02
得票数 0
回答已采纳
2
回答
ValueError:无法将字符串转
换为
浮动:“���”
python
、
numpy
、
pyspark
、
python-unicode
我有一个(2M,23)维
numpy
数组
X。它有一个d类型的<U26,即26个字符的unicode字符串。., '�', '��', '���']], dtype='<U26')X_f = X.astype(float)进口相关包裹from
pyspark</e
浏览 0
提问于2019-03-19
得票数 1
回答已采纳
1
回答
通过agg输出列获取Pandas组
pandas
这是我的密码 df
浏览 7
提问于2022-04-19
得票数 -1
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券