腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
从
嵌套
列表
创建
pyspark
dataframe
我需要从
嵌套
列表
创建
数据帧 我试过不同的方法,但都不管用。
浏览 16
提问于2019-08-28
得票数 0
1
回答
为什么需要
嵌套
pyspark
.sql.SparkSession.createDataFrame的data参数?
、
、
我正在尝试从一个
列表
创建
一个简单的
DataFrame
,并且想要理解其中的逻辑。我在文档中的第一次尝试是sc:
pyspark
.SparkContext =
pyspark
.SparkContext(master='local[*]', appName='TestApp')df = spar
浏览 36
提问于2021-03-06
得票数 0
回答已采纳
2
回答
如何在火花放电中将密集向量的关系式转换成
DataFrame
?
、
、
、
、
0.0, 0.0]), DenseVector([0.0, 1.0, 1.0, 0.0, 0.0, 1.0, 0.0, 0.0, 0.0, 0.0, 0.0, 1.0, 0.0])] File "<stdin>", line 1, in <module> File "/opt/BIG-DATA/spark-2.0.0-bin-hadoop2.7/python/
pyspark
import SparkC
浏览 3
提问于2016-12-26
得票数 11
回答已采纳
1
回答
从
字典
列表
创建
pyspark
dataframe
、
、
、
我有下面的字典
列表
[ "type:"check_datatype", "table":"cars","kwargs":{ }]
浏览 4
提问于2021-03-30
得票数 0
4
回答
如何
从
Spark中的
列表
中
创建
数据?
、
、
火花版本: 2.1test_list = [['Hello', 'world'], ['I', 'am', 'fine']]
DataFrame
[words: array<string>]
浏览 4
提问于2017-04-17
得票数 31
回答已采纳
1
回答
从
嵌套
字典
创建
火花
DataFrame
、
我有一个
嵌套
字典
列表
,例如ds = [{'a': {'b': {'c': 1}}}],并希望
从
它
创建
一个spark,而则推断
嵌套
字典的模式。struct (nullable = true)第二个模式可以通过首先将字典转换为JSON,然后像这样的jsonRDD加载它来
创建
我考虑将字典转换为
pyspark
.sql.Row()对象,希
浏览 5
提问于2015-04-21
得票数 8
1
回答
从
星星之火数据中的
列表
中提取值,而不转换为熊猫
、
、
我有一个火花数据框架,如下所示:每行包含一个
列表
,我想从中提取一个元素。我非常绿色的火花,所以我把它转换成一个熊猫
DataFrame
,然后使用地图功能,我提取所需的元素。是否有
从
每一行访问
列表
中的值的选项? 谢谢!
浏览 5
提问于2021-12-09
得票数 1
回答已采纳
1
回答
使用
pyspark
从
元组
列表
创建
DataFrame
、
、
我正在使用simple-salesforce包处理
从
SFDC中提取的数据。我使用Python3编写脚本和Spark1.5.2。我
创建
了一个包含以下数据的rdd:[('Id', 'a0w1a0000003xAAIStringType,true),StructField(PackSize,StringType
浏览 1
提问于2016-01-26
得票数 13
3
回答
如何
从
多个
列表
创建
pyspark
dataframe
、
、
我想将两个
列表
转换为
pyspark
数据帧,其中
列表
是各自的列。| a| b|| 1| 2|| 3| 4|+---+---+ 有没有一种方便的方法来
创建
这个结果
浏览 0
提问于2018-10-13
得票数 3
回答已采纳
2
回答
无法
从
列表
中
创建
dataframe
:
pyspark
、
、
、
我有一个由函数生成的
列表
。当我在
列表
中执行print时:我获得:df = sqlContext.createDataFrame(preds_labels, ["prediction", "label"]) 不支持的类型:键入“numpy.flo
浏览 1
提问于2016-08-07
得票数 7
回答已采纳
3
回答
将模式数据类型JSON混合到
PySpark
DataFrame
、
、
我需要将JSON的
列表
转换为
pySpark
DataFrames。JSON都有相同的架构。问题是JSON中dicts的值条目有不同的数据类型。例如:字段complex是一个Dicts数组,Dict有四个键,但类型不同(整数、字符串、浮点数和
嵌套
Dict)。参见下面的示例JSON。如果我使用df = spark.createDataFrame(json_list)
从
jsons中
创建
我的
DataFrame
,因为他无法正确地推断模式,所以
pyspark
“删除”了一些数据。Da
浏览 23
提问于2022-03-28
得票数 0
回答已采纳
1
回答
将事务分组到
嵌套
模式中
、
、
我希望将存储在
pyspark
.sql.
dataframe
.
DataFrame
"ddf“中的事务按列"key”分组,该列指示事务的来源(在本例中为customer )。分组是一个非常昂贵的过程,因此我想在
嵌套
模式中将组写入磁盘: (key, [[c1, c2, c3,...], ...])如何
创建
嵌套
模式并将其写入磁盘?
浏览 6
提问于2016-05-14
得票数 0
回答已采纳
2
回答
pyspark
/
dataframe
-
创建
嵌套
结构
、
我正在使用
dataframe
的
pyspark
,并希望
创建
一个
嵌套
结构,如下所示Column 1 | Column 2 | Column 3 -----------------------
浏览 0
提问于2018-09-03
得票数 2
回答已采纳
1
回答
字符串中的
Pyspark
双字符替换避免未映射到pandas或rdd的特定单词
、
、
、
、
我继承了一个修改
pyspark
dataframe
中一些字符串的程序。其中一个步骤涉及
从
字符串中的一些单词中删除双/三/等字母,以及一个额外的例外
列表
,即使它们有重复的字母也会保持不变。目前,这是通过将
dataframe
转换为具有udf的pandas,然后在读回
pyspark
之前对生成的pandas
dataframe
中的字符串应用自定义函数来完成的。连续字符删除函数逐字读取字符串,检查单词是否在例外
列表
中,如果不在例外
列表
浏览 7
提问于2021-03-15
得票数 0
回答已采纳
2
回答
Python JSON dict to
dataframe
no row
、
、
、
、
我正在尝试将API调用获得的一些数据转换为Pandas.
DataFrame
()。requests.get(url)for dct in data_as_list:不幸的是,返回的
dataframe
只包含列名,而根本没有行数据,即使字典中有一些。数据是JSON格式的
嵌套
字典,看起来像
浏览 3
提问于2018-08-06
得票数 0
回答已采纳
2
回答
使用
Pyspark
将XML转换为
Dataframe
、
、
、
我正在尝试废弃一个XML文件,并从XML文件上的标签
创建
一个数据帧。我使用
pyspark
开发Databricks。<?shorttitle> <shorttitle>shorttitle_4</shorttitle>我的代码似乎
从
页面中删除了XML并从标记中
创建
了一个
列表
,但是当我
浏览 2
提问于2018-09-12
得票数 2
1
回答
pyspark
错误:'
DataFrame
‘对象没有属性'map’
、
、
我正在使用
Pyspark
2.0通过读取csv来
创建
一个
DataFrame
对象,使用:我使用以下命令找到数据的类型type(data)
pyspark
.sql.
dataframe
.
DataFrame
from
浏览 4
提问于2016-09-08
得票数 6
1
回答
在
PYSPARK
中
从
联接表中选择所有列
、
、
我有一个'type =
pyspark
.sql.
dataframe
.
DataFrame
‘的数据,我想从这个数据df和另一个具有相同类型的数据df1中选择所有列。我
从
r
创建
df,这是一个元组
列表
。AnalysisException: Table或视图未找到: df;第1行pos 43;'UnresolvedRelation * +-‘UnresolvedRelation df,[],false 我用火花编码,python (
pyspark
浏览 4
提问于2022-07-08
得票数 0
1
回答
火花中的并行方法调用和传递方法中火花会话的使用
、
、
、
首先,我要告诉大家,我对火花很陌生。大概我的代码结构就像import sparkSession.implicits._ var tableData = sparkSession.read.jdbc(<JDBC_URL>, <TABLE NAME>, connectionProperties).select("email").where(<CUSTOM CON
浏览 0
提问于2017-02-23
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券