腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
0
回答
从
pyspark
数据
帧
创建
Numpy
矩阵
、
、
、
、
我有一个
pyspark
dataframe child,它的列如下:80 70我正在尝试使用IndexedRowMatrix将其转换为
numpy
矩阵
,如下所示: mat = IndexedRowMatrix(child.select我希望避免转换为pandas dataframe来获取
矩阵
。usercache&
浏览 0
提问于2017-11-29
得票数 2
回答已采纳
1
回答
将
numpy
中的不同数组添加到
数据
帧
的每一行
、
、
、
我有一个SparkSQL
数据
帧
和2Dnumpy
矩阵
。它们具有相同的行数。我打算将
numpy
矩阵
中的每个不同数组作为新列添加到现有的
PySpark
数据
帧
中。这样,添加到每一行的列表是不同的。例如,
PySpark
数据
帧
如下所示 | Id | Name || 1 | Bob || 3| Mike
浏览 16
提问于2019-10-05
得票数 0
3
回答
PySpark
-
从
Numpy
矩阵
创建
DataFrame
、
、
、
、
我有一个
numpy
矩阵
:我需要从arr
创建
一个
PySpark
数据
帧
。我不能手动输入值,因为arr的长度/值将动态变化,因此我需要将arr转换为
数据
帧
。 我尝试了以下代码,但没有成功。TypeError: Can not infer schema for type: <type '
numpy
.ndarray'&g
浏览 47
提问于2018-01-11
得票数 5
回答已采纳
1
回答
将
numpy
数组转换为spark
数据
帧
以输入到MySQL (
pyspark
)
、
、
、
、
使用JDBC驱动程序,我能够将存储在MySQL中的
数据
表拉入spark dataframe。然后,我在
数据
帧
上运行来自
pyspark
mllib的统计相关函数(经过一些转换),并能够获得一个相关
矩阵
(类型为
numpy
.ndarray),如下所示:我如何利用这个
矩阵
并
创建
一个像下面这样的
数据
帧
,这样我就可以将其输入回MySQL:
浏览 2
提问于2017-08-10
得票数 0
1
回答
主成分分析在
PySpark
中的应用
、
、
、
、
看着。这些示例似乎只包含Java和Scala。
浏览 2
提问于2015-08-03
得票数 10
回答已采纳
1
回答
将
numpy
矩阵
转换为
pyspark
、
我有一个2d的
numpy
数组我如何
从
矩阵
中的每一行都是rdd中的一个条目来
创建
pyspark
?使:其中aaData是
numpy
2d数组(
矩阵
),rddData是
从
aaData
创建
的rdd。
浏览 2
提问于2016-03-24
得票数 4
回答已采纳
1
回答
将Spark
数据
帧
转换为Spark DenseMatrix进行操作
、
、
、
我在互联网上找遍了,却找不到如何简单地将spark中的
数据
帧
转换成
矩阵
,这样我就可以对其进行
矩阵
运算。 我如何在Spark 2中简单地实现这一点?
浏览 0
提问于2017-02-18
得票数 2
2
回答
用于获取精度、召回、f1score的混淆
矩阵
、
、
、
我有一个
数据
帧
df。我已经对
数据
帧
执行了decisionTree分类算法。这两列是执行算法时的标签和特征。该模型被称为dtc。如何在
pyspark
中
创建
混淆
矩阵
?features', labelCol = 'label')predictions = dtcModel.transform(test) from
pyspark
.mllib.linalgimport Vect
浏览 0
提问于2019-10-16
得票数 4
1
回答
PySpark
--如何在
数据
帧
中取干扰
矩阵
的上三角?
、
我在一个
PySpark
数据
帧
中得到了一个距离
矩阵
,我试图获取
数据
的上(或下)三角形,并在另一个
数据
帧
中得到结果。例如,我试图将其转换为: 2,1,2,34、3、2、1 0,1,2,30,0,0,1 我研究过
numpy
,但从我所读到的来看
浏览 0
提问于2018-03-01
得票数 0
1
回答
将
numpy
(NxM)
矩阵
转换为(Nx1)具有N行和1列的火花放电
数据
和数组
数据
我想要从一个NxM
numpy
矩阵
中生成一个。此
数据
应该有N行,但只有1列包含大小(1xM)的数组
数据
。我想转换下面的
矩阵
m = np.array([[1, 2], [11
浏览 0
提问于2019-07-01
得票数 1
回答已采纳
1
回答
如何
从
np.arrays列表(由RDKit生成)中
创建
Spark
数据
帧
以馈送给sparks随机森林实现?
、
、
、
这段代码
从
以svmlight格式存储的文件中加载
数据
帧
,我可以使用dump_svmlight_file
创建
这样的文件,但写入文件感觉并不是很“闪亮”。我已经走了这么远:from rdkit.Chem import AllChemimport
numpy
的RDD中
创建
一个DataFrame。我想我还需要添加y值,并以某种方式告诉Random forest实现什么是
浏览 0
提问于2021-01-15
得票数 1
3
回答
从
numpy
矩阵
创建
Spark
数据
帧
、
、
、
、
这是我第一次使用
PySpark
(Spark2),我正在尝试为Logit模型
创建
一个玩具
数据
帧
。我成功地运行了,并希望将我自己的
数据
传递给它。我试过了:import
numpy
as npfrom
pyspark
.mllib.regressionmydf = spark.createDataFrame(df,[&qu
浏览 0
提问于2017-07-13
得票数 17
回答已采纳
1
回答
如何在使用
pyspark
+databricks时绘制相关热图
、
、
、
、
我正在
数据
库中学习火花放电。我想要生成一个关联热图。from
pyspark
.sql import SparkSessionimport pandas as pdfrom ggplot import *from
pyspark
.ml.stat importmyGraph_vector, vector_col)
浏览 1
提问于2019-04-06
得票数 9
回答已采纳
1
回答
numpy
数组会自动分布在集群上吗?
、
、
我有一个分布式火花
数据
帧
df。
浏览 10
提问于2019-12-17
得票数 0
回答已采纳
1
回答
pyspark
:将稀疏局部
矩阵
转换为RDD
、
、
、
、
我有一个稀疏
矩阵
(
从
python函数接收),我想将其转换为
numpy
矩阵
。
numpy
矩阵
不适合本地内存,我想把它放到
pySpark
中的RDD中。我一般不太熟悉Spark,因此我不知道如何将本地spase
矩阵
加载到RDD中。
浏览 2
提问于2015-06-17
得票数 1
1
回答
如何计算
pyspark
数据
帧
的协方差
矩阵
?
、
、
、
我有一个很大的
pyspark
数据
框架,其中列是一些产品,行是其随时间变化的价格。我需要计算所有产品的协方差
矩阵
,但
数据
太大,无法转换为pandas
数据
帧
,因此我需要使用
pyspark
进行计算。我已经有了相关
矩阵
,所以任何使用标准差对角
矩阵
的方法都是非常受欢迎的。 Here是我的
数据
帧
中两列的一个示例。
浏览 68
提问于2021-06-15
得票数 0
2
回答
将
numpy
矩阵
转换为一组pandas级数
、
、
问:有没有一种快速的方法将2D
Numpy
矩阵
转换为一组Pandas系列?例如,(100 x5) ndarray,到5个系列,每个系列有100行。背景:我需要使用随机生成的不同类型的
数据
(浮点数、字符串等)
创建
一个pandas
数据
帧
。目前,对于float,我
创建
了一个
numpy
矩阵
,对于strings,我
创建
了一个字符串数组。然后,我将所有这些内容与axis=1结合起来,形成一个
数据
帧</e
浏览 29
提问于2021-04-29
得票数 0
回答已采纳
1
回答
如何
从
仅具有特定列的pandas
数据
框
创建
OD
矩阵
、
、
、
、
我有如下图所示的
数据
框。我需要
创建
一个Origin-Destination
矩阵
,其中行轴i将日期作为列,并且在列轴I上将具有“至市政代码”的值,并且填充
矩阵
的值将是列"count“的值。如何
从
pandas
数据
帧
中获取
矩阵
?我尝试将pandas
数据
帧
转换为
numpy
数组,但不起作用。date', 'from_municipality_code','to
浏览 57
提问于2020-10-22
得票数 0
回答已采纳
1
回答
如何使用
Pyspark
从
xml文件
创建
子
数据
帧
?
我在
pyspark
中有所有这些支持库,并且我能够为parent
创建
数据
帧
- def xmlReader(root, row, filename): return xref df1.head()
浏览 11
提问于2019-03-15
得票数 0
1
回答
如何将
pyspark
数据
帧
拆分成多个记录数相等的
数据
帧
我有一个
pyspark
数据
帧
,我想把它分成多个相等记录的
数据
帧
。我在AWS EMR上执行此任务,不支持pandas或
numpy
。
浏览 22
提问于2019-12-22
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
从机器学习学python(四)——numpy矩阵基础
从机器学习学python(四)——numpy矩阵广播及一些技巧
学习数据科学从Numpy和Pandas开始
从数据复杂性矩阵谈企业数据分析的痛点
Python数据分析入门日记Day1:科学技术库Numpy:数组的创建
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券