腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
调整
Pyspark
dataframe
中
CSV
文件
数据
的
错误
数据
、
、
我试图在
Pyspark
中将
CSV
文件
读取到
dataframe
中
,但我有一个包含混合
数据
的
CSV
文件
。它
的
部分
数据
属于它
的
相邻列。有没有办法修改python
中
的
dataframe
以获得预期
的
输出
dataframe
?示例
CSV
ID , Name '1'
浏览 22
提问于2020-01-26
得票数 0
回答已采纳
1
回答
使用
pyspark
如何拒绝
csv
文件
中
的
坏(格式
错误
)记录,并将这些被拒绝
的
记录保存到新
文件
中
、
、
我正在使用
pyspark
将
数据
从
csv
文件
加载到
dataframe
中
,并且我能够在删除格式
错误
的
记录
的
同时加载
数据
,但是我如何才能拒绝
csv
文件
中
的
这些
错误
(
错误
格式)记录,并将这些被拒绝
的
记录保存在新
文件
中
浏览 11
提问于2019-01-15
得票数 2
回答已采纳
1
回答
如何使用Databricks将
PySpark
数据
保存到个人计算机?
、
、
我在Databricks环境中有一个
dataframe
。我需要把这个
数据
下载到我
的
个人电脑上。此
dataframe
包含10,000行。因此,请尝试执行以下操作:org.apache.spark.SparkException:
浏览 4
提问于2022-07-08
得票数 0
回答已采纳
1
回答
pyspark
错误
:'
DataFrame
‘对象没有属性'map’
、
、
我正在使用
Pyspark
2.0通过读取
csv
来创建一个
DataFrame
对象,使用:我使用以下命令找到
数据
的
类型type(data)
pyspark
.sql.
dataframe
.
DataFrame
我正在尝试将
数据
中
的
一些列转换为Labele
浏览 4
提问于2016-09-08
得票数 6
2
回答
将
数据
保存到HDFS
的
格式是什么?
、
、
、
创建
DataFrame
后,我可以将其保存为avro、
csv
或拼板格式。 在
dataframe
或rdd
中
是否有其他格式可用于在Hadoop中保存
数据
?
浏览 2
提问于2017-12-21
得票数 1
2
回答
pyspark
.pandas和熊猫有什么区别?
、
开始在Databricks上使用
PySpark
,我看到我可以在pandas
的
同时导入
pyspark
.pandas。有什么不同吗?我想这不像koalas,对吧?
浏览 13
提问于2022-09-20
得票数 0
1
回答
如何从
pyspark
dataframe
中
更快地保存
csv
文件
?
、
、
、
我目前在本地
的
windows10系统上使用
pyspark
。
pyspark
代码运行得相当快,但将
pyspark
数据
帧保存为
csv
格式需要花费大量时间。我正在将
pyspark
数据
帧转换为pandas,然后将其保存到
csv
文件
中
。我还尝试使用write方法来保存
csv
文件
。(1).write.format('com.databricks.spark.
c
浏览 126
提问于2019-08-01
得票数 5
1
回答
星火中
的
CSV
文件
分析格式不正确
、
、
、
我是新来
的
数据
科学,我是使用星火与
PySpark
的
API。我想要创建一个
DataFrame
文件
的
.
CSV
文件
。当我这样做时,这些列被移动到一个列
中
,如下所示。我用来创建
CSV
文件
的
DataFrame
的
注释是 spark = SparkS
浏览 3
提问于2021-07-04
得票数 0
回答已采纳
1
回答
如何对
PySpark
DataFrame
的
每一列
中
的
数据
进行混洗?
、
、
、
、
我是一个用
PySpark
编程
的
初学者。我在
CSV
文件
中有以下
数据
,该
文件
正在被读取到Spark
Dataframe
中
,并且我想从一个小
数据
集开始生成一个大型
数据
集。df = (spark.read .option("inferSchema", "t
浏览 16
提问于2020-05-11
得票数 0
1
回答
Pyspark
不能将大型
数据
输出到
csv
。会话设置不正确?
、
、
、
我在火星雨2.3
中
的
演讲: .builder\ .config('spark.executor.instances会话,并处理大约包含
数据
的
数据
。这些
数据
由int、float和str
数据
组成。我
的
程序应该连接几个表,格式化一些
数据
,描述最终
的
结果表并以
csv
格
浏览 10
提问于2022-11-30
得票数 0
1
回答
在两个函数python之间传递
数据
、
from varname import nameof df.coalesce(1).write.option("header", "true")\ .
csv
(
dataframe
_abc) spark.stop
浏览 10
提问于2022-05-11
得票数 0
回答已采纳
4
回答
PySpark
java.io.IOException:方案没有FileSystem : https
、
、
我正在使用本地窗口,并试图用python上
的
以下代码加载XML
文件
,我遇到了这个
错误
,有人知道如何解决它吗?options(rowTag="IRS990EZ").load("https://irs-form-990.s3.amazonaws.com/201611339349202661_public.xml") 这就是
错误
990.s3.amazonaws.com/201611339349202661_public.xml") C:\
浏览 87
提问于2017-11-17
得票数 4
回答已采纳
1
回答
我们是否可以在湖人库
中
的
dataframe
和table之间执行合并/重新插入操作?
、
、
我已经将
数据
从存储存储到sdf
数据
,将
数据
从Lake存储到另一个
dataframe
,并希望执行合并/更新。." + key_column1).whenMatchedUpdateAll().whenNotMatchedInsertAll().execute() AttributeError:“
DataFrame
”对象没有属性“Merge”
错误
浏览 2
提问于2022-08-01
得票数 0
2
回答
火花聚结和收集,哪一个更快?
、
、
我使用
pyspark
来处理50 15
的
数据
,使用15 m4
的
AWS。fo
浏览 0
提问于2016-09-15
得票数 4
回答已采纳
1
回答
模块
pyspark
_
csv
没有属性“csvToDataframe”
、
、
我是新
的
火花和面临一个
错误
,同时将.
csv
文件
转换为
数据
。我使用
pyspark
_
csv
模块进行转换,但是
错误
地说“模块'
pyspark
_
csv
‘没有属性’csvToDataframe‘”。这是我
的
代码:import findsparkfindspark.find()sc=
pyspark</e
浏览 2
提问于2016-05-02
得票数 1
回答已采纳
2
回答
Pyspark
dataframe
到pandas
的
转换会丢弃
数据
吗?
、
我有一个相当复杂
的
过程来创建
pyspark
dataframe
,将其转换为pandas
dataframe
,并将结果输出到平面
文件
。我不确定
错误
是在哪一点引入
的
,所以我将描述整个过程。开始时,我有一个
pyspark
dataframe
,其中包含ids集
的
成对相似性。EuclideanDistance']) result = (df.withColumn('row_num', row_nu
浏览 1
提问于2018-05-02
得票数 0
1
回答
如何使用postgreSQL表插入
csv
文件
内容?
、
、
、
我希望将
数据
从
csv
文件
插入到postgreSQL表
中
。我编写了从
csv
文件
中
获取
数据
的
代码,如下所示我得到了'myData‘变量
中
浏览 0
提问于2018-09-19
得票数 1
回答已采纳
1
回答
如何修复'
DataFrame
‘对象没有属性’聚结‘?
、
、
、
、
在一个
PySpark
应用程序
中
,我试图将
数据
转换成熊猫,然后将结果写入
csv
文件
。我就是这样做
的
:df.coalesce(1).write.option("header", True).option("delimiter", ",").
csv
('
dataframe
浏览 2
提问于2017-09-28
得票数 5
回答已采纳
1
回答
PySpark
: AttributeError:“
DataFrame
”对象没有属性“forEach”
、
、
我试图从hdfs
中
获取
数据
,并对每个
数据
进行迭代,以便对列_c1进行分析。import findsparkimport
pyspark
sc= SparkContext()sql = SQLContext(sc) df = sql.read.
浏览 3
提问于2022-04-07
得票数 0
回答已采纳
1
回答
将星星之火转换为熊猫
的
dataframe
有例外:在使用基于
文件
的
收集时不支持箭头。
、
、
、
、
我正在尝试将星火
数据
转换为Azure
数据
库
中
的
熊猫
数据
。但我得到了以下
错误
:首先,我使用以下行读取
csv
文件
:df1 = spark.read.
csv
('/mnt/test/sample.
csv
', header = True但是,在
浏览 0
提问于2019-08-26
得票数 1
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券