腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如何
使用
雪花
和
python
从
Pandas
数据
帧
创建
Spark
数据
帧
?
pandas
、
dataframe
、
apache-spark
、
pyspark
、
snowflake-cloud-data-platform
我有一个sql,它是存储在
python
中的一个变量中,我们
使用
SnowFlake
数据
库。首先,我已经转换成熊猫
数据
帧
使用
sql,但我需要转换成火花
数据
帧
,然后存储在一个CreateorReplaceTempView。我试过了: import sf_connectivity (we have a code for establishing connectionpd.read_sql
浏览 5
提问于2020-06-04
得票数 0
3
回答
pyspark to hive中的
Pandas
数据
帧
python-2.7
、
pandas
、
hive
、
pyspark
如何
将熊猫
数据
帧
发送到hive表?我知道如果我有一个
spark
数据
帧
,我可以将它注册到一个临时表中,
使用
sqlContext.sql("create table table_name2as select * from table_name") 但是当我尝试对registerTempTable
使用
pandas
dataFram
浏览 0
提问于2016-04-28
得票数 9
回答已采纳
1
回答
Pandas
版本0.22.0 - drop_duplicates()获得意外的关键字参数'keep‘
python
、
pandas
、
python-2.7
、
dataframe
我正在尝试
使用
子集(drop_duplicates=‘’,keep=False)在我的
数据
帧
中删除重复项。Traceback (most recent call last): File "/home/source/fork/PySpark_Analytics/Notebooks/Krish/beryllium_
pandas
.pydffsameflname.drop_duplicates(subset=['INDIVIDUAL_LA
浏览 110
提问于2019-06-20
得票数 1
1
回答
Spark
中的用户定义函数(UDF)是否在集群工作节点上并行运行?
apache-spark
、
user-defined-functions
假设我在
python
中
创建
了一个函数,所以将一个数字求幂为2: def squared(s):%sql sele
浏览 33
提问于2019-10-10
得票数 0
回答已采纳
1
回答
Pandas
dataframe to
Spark
dataframe“无法合并类型错误”
pandas
、
apache-spark
、
dataframe
、
pyspark
、
apache-spark-sql
我有csv
数据
,并
使用
read_csv
创建
了
Pandas
dataframe,并强制所有列为字符串。然后,当我尝试
从
Pandas
数据
帧
创建
Spark
数据
帧
时,我得到了下面的错误消息。_createFromLocal(data, schema) File "/usr/hdp/2.4.2.0-258/
spark
浏览 6
提问于2016-08-06
得票数 33
回答已采纳
1
回答
如何
将
spark
dataframe中的String类型列转换为
Pandas
dataframe中的String类型列
pandas
、
apache-spark
、
pyspark
我有一个
从
熊猫
数据
帧
创建
的样本
spark
数据
帧
-from\ .appName("
Python
Spark
SQL basic example") \ .config("
spark
.some.conf
浏览 3
提问于2020-09-09
得票数 0
2
回答
pyspark dataframe to dictionary:列作为键
和
列值列表
python
、
pyspark
您好,我需要将pyspark dataframe (或rdd)转换为字典,其中dataframe的列将是关键字,column_value_list将作为字典值。a 10a 30c 50new_dict = {'name':['a','b', 'a', 'b', 'c'], 'amt':[10,20,30,40,50]}我也在
浏览 4
提问于2017-04-28
得票数 1
1
回答
使用
Pyspark与
python
解释器、
pandas
和
Ipython notebook集成
Spark
SQL
python-3.x
、
pandas
、
matplotlib
、
pyspark
、
apache-spark-sql
我想知道哪个解释器适合
Python
使用
Numpy、
pandas
和
matplotlib等集成了Ipython笔记本的特性。 我还想把这个
和
Apache
Spark
集成在一起。有可能吗?我的目标是我需要从不同的源加载不同的表,比如Oracle,MS
和
HDFS文件,并需要
使用
Pyspark,SparkSQL来转换它们。然后我想
使用
pandas
/matplolib进行操作和可视化。
浏览 0
提问于2017-02-08
得票数 0
1
回答
在
Python
语言中
从
Spark
DataFrame
创建
labeledPoints
python
、
pandas
、
apache-spark
、
apache-spark-mllib
、
apache-spark-ml
我应该
使用
python
中的哪个.map()函数
从
spark
数据
帧
创建
一组labeledPoints?如果标签/结果不是第一列,但我可以引用它的列名'status‘,那么表示法是什么?我
使用
这个.map()函数
创建
Python
dataframe: listmp = list(line.split('\t')) data
浏览 3
提问于2015-09-14
得票数 14
回答已采纳
1
回答
PyArrow表到PySpark
数据
帧
的转换
python-3.x
、
pandas
、
pyarrow
我正在尝试将我的
Pandas
数据
帧
转换为PySpark
数据
帧
。createDataFrame函数不起作用,所以我找到了PyArrow。我可以转换PyArrow表-->
Spark
表,但是我找不到任何方法来转换
Pandas
表-->
Spark
谢谢
浏览 1
提问于2018-11-16
得票数 3
1
回答
如何
在Databricks中快速轻松地在R
和
pandas
数据
帧
之间进行转换?
r
、
pandas
、
databricks
、
temp-tables
我是一个拥有最少
python
经验的R用户。我听说我必须
使用
spark
temp tables来做这件事,而且它非常简单,但我找不到任何完整的示例代码,到目前为止,我还不能让它工作。我得到了一个SparkR
数据
帧
(因为我不能让Base R
数据
帧
与RegisterTempTable()一起工作),并将它转换成一个临时表:jdbc_url <- "jdbc:sqlserver[table]) as result" ) SparkR
浏览 1
提问于2020-05-29
得票数 1
1
回答
在
spark
数据
帧
上实现pythonic统计函数
pandas
、
apache-spark
、
pyspark
、
statistical-test
我在
spark
数据
帧
中有非常大的
数据
集,它们分布在节点上。我可以
使用
spark
库pyspark.sql.functions进行简单的统计,如mean、stdev、skewness、kurtosis等。如果我想
使用
像Jarque-Bera (JB)或Shapiro Wilk(SW)等高级统计测试,我会
使用
像scipy这样的
python
库,因为标准的apache pyspark库没有它们。但为了做到这一点,我必须将
spark</e
浏览 30
提问于2020-09-13
得票数 0
1
回答
Snowflake : SQL访问控制错误:权限不足,无法对架构进行操作
pyspark
、
aws-glue
、
snowflake-cloud-data-platform
我已经编写了aws glue job,我试图将
雪花
表作为
spark
数据
帧
读取,并尝试将
spark
数据
帧
写入snowflake表。在这两种情况下,我的工作都无法显示“操作模式的权限不足”。但是当我在
雪花
cli上直接写insert语句时,我能够插入
数据
。所以基本上我有插入权限。那么,当我尝试
从
dataframe中插入
数据
或
从
snowflake表中读取
数据
作为dataf
浏览 0
提问于2019-02-09
得票数 0
1
回答
如何
将
pandas
/pyspark
数据
帧
读写到Snowflake
python
、
pandas
、
dataframe
、
apache-spark
、
snowflake-cloud-data-platform
我想用我
创建
的
pandas
dataframe填充一个
雪花
表。我已连接到Snowflake -
如何
将
pandas
数据
帧
写入Snowflake表?
浏览 2
提问于2021-07-20
得票数 0
1
回答
将
pandas
数据
帧
转换为PySpark
数据
帧
python-3.x
、
pandas
、
pyspark
、
apache-spark-sql
、
pyspark-sql
我正在
使用
:
从
spark
-->
Pandas
的转换很简单,但我正在为
如何
将
Pandas
数据
帧
转换回
Spark
而苦苦挣扎。import * import argparse,
浏览 1
提问于2018-10-23
得票数 15
回答已采纳
2
回答
如何
在PySpark中将
Pandas
的DatetimeIndex转换为DataFrame?
apache-spark
、
pyspark
、
pyspark-sql
MonthlyTransactionDate")).first()df3 =
spark
.createDataFrame(tmp) 我已经检查了tmp,我有一个熊猫
数据
帧
的日期列表。
浏览 80
提问于2019-01-02
得票数 2
回答已采纳
3
回答
如何
使用
createDataFrame
创建
pyspark
数据
帧
?
pyspark
我知道这可能是一个愚蠢的问题。我有以下代码:rows = [1,2,3]df.printSchema()但是我得到了一个错误:我不明白为什么会发生这种情况,因为我已经提供了'data',也就是变量row。
浏览 1
提问于2018-03-12
得票数 2
回答已采纳
1
回答
如何
在
spark
sql dataframe中映射一列以
创建
新列?
python
、
pandas
、
dataframe
、
apache-spark
在
python
和
pandas
中,我可以
创建
一个新的专栏,如下所示:
使用
pandas
dataframe中的两列来
创建
字典。dict1 = dict(zip(data["id"], data["duration"])) 然后,我可以应用这个字典在第二个dataframe中
创建
一个新列。df['id_duration'] = df['id'].map(lambda x: di
浏览 38
提问于2021-01-22
得票数 0
回答已采纳
1
回答
使用
Hive表迭代
Spark
数据
帧
apache-spark
、
hive
、
pyspark
、
apache-spark-sql
、
hiveql
我有一个非常大的csv文件,所以我
使用
spark
并将其加载到
spark
数据
帧
中。for index, row in locations.iterrows(): color="
浏览 27
提问于2018-05-30
得票数 0
1
回答
pandas
数据
帧
的PySpark rdd
apache-spark
、
pyspark
每个源文件对应于一些测量
数据
的给定快照时间。我有一个预处理函数,可以获取其中一个文件并输出
pandas
数据
帧
。所以我做了一个
spark
调用,它给了我一个所有输入文件的列表,然后我调用了map,它为我提供了一个sc.wholeTextFiles,其中每个元素都是一个熊猫
数据
帧
。现在“重塑”此结构的最佳方法是什么,以便我只有一个由连接的较小
数据
帧
组成的结果
数据
帧
?
浏览 0
提问于2020-06-29
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券