腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如何
避免
在
将
数据
帧
写入
CSV
文件
时
生成
crc
文件
和
成功
文件
?
pyspark
我正在尝试使用以下代码df.repartition(1).write.
csv
('path',sep = ',')
将
数据
帧
保存到
CSV
文件
中,然后
在
csv
文件
旁边还有其他
生成
的
文件
,如以下代码片段所示
如何
避免
在
不
生成
CSC
文件
的情况下
将
df保存到<em
浏览 63
提问于2019-10-08
得票数 2
1
回答
如何
避免
/禁用.
crc
文件
编写
csv
文件
的火花?
r
、
csv
、
amazon-s3
、
sparklyr
我使用spark_write_
csv
函数
将
火花
数据
帧
作为
csv
文件
写入
本地
文件
系统。
在
输出目录中,每个部件
文件
有一个.
crc
文件
。我正在寻找任何函数或属性的Hadoop/火花,以
避免
生成
这些.
crc
文件
。flights_tbl<-copy_to(sc,flights,"flights&
浏览 0
提问于2018-07-05
得票数 1
1
回答
如何
简化以下编写多个
CSV
文件
的R代码?
r
我想在R中输出以下
数据
,我想保留原名,我知道
如何
简化它,我认为lapply()不起作用。write.
csv
(weekly_data$NO_2005_2011_all_site,'Weekly_NO_2005_2011_all_site.
csv
',row.names = FALSE) write.
csv
$NO2_2005_2011_all_site,'Weekly_NO2_2005_2011_all_site.
csv
',row.names = FAL
浏览 6
提问于2022-07-25
得票数 -2
1
回答
如何
在单个工作表上排列输出dfs
python
、
pandas
我有3个
数据
帧
,我希望所有的df输出在一个工作表上第一个df应该从C2单元开始,第二个df应该从H2单元开始,第三个df应该从C8单元开始。附上了的图像。
浏览 20
提问于2020-06-01
得票数 0
1
回答
使用pandas导出
和
索引
csv
文件
python
、
pandas
、
dataframe
、
indexing
我已经创建了一个带有列名的
csv
文件
,并使用pandas库保存它。这个
文件
将用于创建一个历史记录,其中的行将在不同的时刻逐个计费……为了
将
行添加到先前创建的
csv
中,我要做的是
将
记录转换为模式,然后使用to_
csv
()选择DataFrame = 'a‘作为参数,以便将此记录附加到现有
文件
这里的问题是,我希望每次添加新行时,
文件
中都会自动
生成
索引
和
索引。我已经知道当我
将
这个
浏览 8
提问于2020-01-06
得票数 0
1
回答
如何
在不重复列标签的情况下
将
多个
数据
格式
写入
同一个工作表
pandas
、
xlsxwriter
关于
将
dataframe
数据
写入
文件
,我有两个问题: 我的程序对
数据
的许多分组行
生成
摘要统计信息,并将它们保存到StringIO缓冲区中,该缓冲区
在
完成
时
写入
我的output.
csv
文件
。但是,困扰我的是
CSV
文件
是
如何
对
写入
缓冲区并顺便
写入
我的
CSV
文件
的每个汇总统计<em
浏览 3
提问于2017-04-01
得票数 1
回答已采纳
3
回答
如何
在保存DataFrame的同时
避免
生成
crc
文件
和
成功
文件
?
json
、
apache-spark
、
spark-dataframe
我使用下面的代码
将
星星之火DataFrame保存到JSON
文件
.part-r-00000-704b5725-15ea-4705-b347-285a4b0e7fd8.
crc
part-r-00001-704b5725-15ea-
浏览 13
提问于2015-12-20
得票数 30
回答已采纳
1
回答
pandas:具有保留列顺序的to_
csv
追加模式
pandas
我正在使用:
将
多个pandas
数据
帧
逐个
写入
CSV
文件
。
如何
确保新的
数据
帧</e
浏览 21
提问于2018-08-02
得票数 0
1
回答
使用purrr::map
将
多个
数据
帧
写入
csv
-
文件
r
、
csv
、
purrr
问题:dfs <- list(iris,不起作用的是:dfs %>% 我希望此位
将
正确地
将<
浏览 1
提问于2017-11-28
得票数 5
回答已采纳
2
回答
如何
编写一个for循环,
将
多个
csv
文件
读入R,并对
数据
进行子集,从而为ggplot创建干净的
数据
帧
?
r
、
loops
、
subset
、
gsub
、
assign
我正在尝试
在
r中设置一个for循环,这样我就可以
将
函数或计算添加到csvs列表中,以便稍后为ggplot或stat分析
生成
数据
帧
。(我目前已经安装了tidyverse、dplyr
和
ggplot2 )。现在,我只想对csvs进行子集,然后根据子集
数据
创建一个
数据
帧
。 我使用for循环
成功
地
将
多个csvs读取到单独的
数据
帧
中,方法是设置一个工作目录,创建一个csvs列
浏览 0
提问于2019-02-26
得票数 0
1
回答
将
文件
写入
blob容器
时
,
在
根容器中创建空
文件
scala
、
azure-blob-storage
、
databricks
、
azure-databricks
将
数据
帧
中的
数据
写入
路径path =根容器/容器1+ "/“+ fileName df.repartition(1) .write .format("com.databricks.spark.
csv
""header","true") .option(”分隔符“,分隔符).option(”引号“,"\u0000") .mode(SaveMode.Overwrite) .save(路
浏览 14
提问于2020-10-29
得票数 0
1
回答
将
大量数字从R导出到
csv
r
、
csv
、
export-to-csv
在
尝试
将
R
数据
帧
导出到
csv
文件
时
,我遇到了一个奇怪的问题。
数据
帧
包含一些大数字,但是当它们
写入
csv
文件
时
,它们会“丢失”小数部分,而不是
写入
小数部分。但并不像人们所期望的那样,而是像这样: 假设3224571816.5649是R中的正确值,当
写入
csv
时
,它变成32245718165649
浏览 11
提问于2019-03-22
得票数 0
1
回答
在
R编程语言上读取
和
设置
CSV
文件
r
、
csv
、
statistics
我想在这里澄清我对
将
文件
转换为
CSV
和
读取它的理解。让我们使用来自R的
数据
集,标题为longley。write.table(d1, file="", sep="1,16", row.names=TRUE, col.names=TRUE) 这是不是已经变成了一个
数据
框,或者我在这里遗漏了什么现在假设我想要读取这个
CSV<
浏览 2
提问于2015-09-20
得票数 2
2
回答
如何
在pandas中使用read_
csv
读取
时
删除索引列
python
、
python-3.x
、
pandas
、
csv
我们正在尝试使用pandas
在
python中读取一个简单的
csv
文件
示例,如下所示-打印(Df)我们需要删除下面红色突出显示的索引列的df -我们已经尝试了多种传递参数的方法,但没有
成功
。
浏览 0
提问于2020-08-13
得票数 0
1
回答
如何
合并多个
csv
文件
并将
数据
复制到现有的txt
文件
中
python
、
pandas
、
csv
、
shutil
我有多个
文件
夹,每个
文件
夹包含4个
csv
文件
,每个
文件
包含一列
数据
。对于每个
文件
夹,我希望
将
这些
文件
合并在一起,以使新的dataframe将从这些
csv
文件
中携带4列。接下来,我想将这4列复制到一个已有3列的txt
文件
中。因此,这4列(来自
csv
文件
)
将
放置
在
现有列的旁边。此操作
将
针对多个<e
浏览 1
提问于2019-10-22
得票数 0
9
回答
Spark -
如何
在没有
文件
夹的情况下编写单个
csv
文件
?
csv
、
apache-spark
、
export-to-csv
假设df是Spark中的一个
数据
帧
。
将
df
写入
单个
CSV
文件
的方法是这会将
数据
帧
写入
名为name.
csv
的
文件
夹中包含的
CSV
文件
,但实际的<e
浏览 8
提问于2017-04-27
得票数 38
2
回答
使用dask合并
csv
文件
python
、
dask
我正在使用dask读取5个大的(>1 GB)
csv
文件
,并将它们合并(类似SQL)到一个dask
数据
帧
中。现在,我正在尝试
将
合并后的结果
写入
单个
csv
。我
在
dask dataframe上使用compute()
将
数据
收集到单个df中,然后调用to_
csv
。但是,compute()在读取所有分区的
数据
时速度很慢。我尝试
在
dask df上直接调用to_
c
浏览 5
提问于2017-03-23
得票数 4
1
回答
PySpark
数据
帧
写入
orc不允许使用连字符的列名
dataframe
、
pyspark
、
apache-spark-sql
、
illegalargumentexception
、
orc
我有一个列名中包含连字符的
csv
文件
。我可以
成功
地
将
文件
读取到
数据
帧
中。然而,当
将
df
写入
orc
文件
时
,我得到一个错误,如下所示-当我通过删除连字符来重命名列
时
,我可以
将
数据
帧
写入
浏览 32
提问于2021-02-13
得票数 0
4
回答
将
数据
帧
写入
/读取到
csv
-最终形状- Python
时
出现问题
python
、
pandas
、
dataframe
、
csv
、
file
我正在
将
一个大型
数据
库读入多个
数据
帧
。每次都有效。所以我有单独的
数据
帧
。然后,我
将
每个
数据
帧
写入
csv
文件
。最初它有34列。在此之后,我
将
csv
文件
读取到一个新的
数据
帧
中,现在我有35列。我这样做是为了
写入
csv
文件
: df.to_
浏览 29
提问于2020-08-18
得票数 1
回答已采纳
2
回答
CSV
python的Dataframe索引(仅限)
python
、
csv
、
pandas
、
dataframe
我正在尝试
将
一些
数据
转换为pandas
数据
帧
。不知何故,
数据
帧
原来是空的。"33" "37" "asd7"]Columns: []我想要将
数据
帧
写入
csv<
浏览 2
提问于2014-11-17
得票数 2
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券