腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
将
数据
帧
写入
现有
csv
文件
scala
、
、
、
我有以下包含
数据
的
数据
框|sport |value ||table tennis |12 |我想把这个
数据
帧
写到一个
现有
的
csv
文件
中。/src/main
浏览 20
提问于2021-02-25
得票数 0
1
回答
在
Scala
中将SQL表直接
写入
文件
、
、
团队成员,我正在处理Azure databricks,我可以使用以下选项
将
数据
帧
写入
CSV
文件
: df2018JanAgg.option("header", "true") .save("dbfs:/FileStore/output/df2018janAgg.
csv
&q
浏览 28
提问于2019-10-04
得票数 1
1
回答
将
Scala
Dataframe
写入
CSV
文件
时应用UTF8编码
、
、
、
在Spark2-
Scala
中将
数据
帧
写入
CSV
文件
时,如何正确应用UTF8编码?我使用的是:.format("
csv
").option("header", true).option("delimiter", "|")这是不起作用的:例如:
将
é替换为奇
浏览 12
提问于2019-10-21
得票数 1
回答已采纳
1
回答
如何
将
Spark Dataframe保存到Hana Vora表?
、
、
、
我们有一个
文件
,我们想要分成3个,在导入到Hana Vora之前,我们需要对它进行一些
数据
清理-否则一切都必须以字符串的形式输入,这是不理想的。我们可以很好地在spark中导入和准备DataFrames,但是当我尝试
写入
HDFS
文件
系统或者更好地将其保存为"com.sap.spark.vora“
数据
源中的一个表时,我得到了错误。有人能建议一种可靠的方法
将
spark准备的
数据
集导入Hana Vora吗?谢谢!
浏览 0
提问于2016-10-17
得票数 0
2
回答
在保留格式的同时
将
R
写入
excel中的模板
、
我在R中有一个
数据
帧
,它想要
写入
excel (或
csv
)并以良好的格式输出(例如,带有边框,表格的标题,而不是从单元格A1开始)。此时,我使用函数write.table
将
数据
帧
写入
csv
文件
,然后
将
数据
复制并粘贴到excel中的文档中,在该文档中,我已将表格格式化为模板。当它只是一个
数据
帧
时,这不是一个主要问题,但我现在想对多个
数据</e
浏览 3
提问于2012-06-27
得票数 30
回答已采纳
2
回答
从本地Linux
文件
夹读取的Kafka producer
、
、
、
、
我正在写一个卡夫卡制作人有没有可能做这样的事情?实时
数据
将以
CSV
文件
的形式
写入
本地Linux
文件
夹中- / data /data01/pharma/2017/ 如何将此
数据
移动到我创建的主题?我的消费者
将
读取此
数据
并将其添加到
浏览 3
提问于2017-08-07
得票数 1
1
回答
Scala
--使用表达式的求值
将
数据
帧
写入
csv
文件
、
、
、
、
这是使用表达式(字符串)的求值(Eval或类似的)
将
数据
帧
写入
Scala
中的
csv
文件
。 import
scala
.reflect.runtime.universe._import
scala
.tools.reflect.ToolBox import <
浏览 1
提问于2018-08-24
得票数 0
回答已采纳
1
回答
pandas:具有保留列顺序的to_
csv
追加模式
我正在使用:
将
多个pandas
数据
帧
逐个
写入
CSV
文件
。如何确保新的
数据
帧
将</
浏览 21
提问于2018-08-02
得票数 0
1
回答
PySpark
数据
帧
写入
orc不允许使用连字符的列名
、
、
、
、
我有一个列名中包含连字符的
csv
文件
。我可以成功地
将
文件
读取到
数据
帧
中。然而,当
将
df
写入
orc
文件
时,我得到一个错误,如下所示-当我通过删除连字符来重命名列时,我可以
将
数据
帧
写入
但是我需要列名有连字符,因为我想把这个orc附加到列名中有连字符的<em
浏览 32
提问于2021-02-13
得票数 0
3
回答
在spark 1.6中
将
csv
读取为
数据
帧
、
我使用的是Spark 1.6,正在尝试
将
csv
(或tsv)
文件
读取为
数据
帧
。以下是我采取的步骤:
scala
> import sqlContext.implicits._
scala
> .format("com
浏览 12
提问于2016-07-27
得票数 2
2
回答
CSV
python的Dataframe索引(仅限)
、
、
、
我正在尝试
将
一些
数据
转换为pandas
数据
帧
。不知何故,
数据
帧
原来是空的。"33" "37" "asd7"]Columns: []我想要将
数据
帧
写入
csv<
浏览 2
提问于2014-11-17
得票数 2
1
回答
如何在单个工作表上排列输出dfs
、
我有3个
数据
帧
,我希望所有的df输出在一个工作表上第一个df应该从C2单元开始,第二个df应该从H2单元开始,第三个df应该从C8单元开始。附上了的图像。
浏览 20
提问于2020-06-01
得票数 0
4
回答
将
数据
帧
写入
/读取到
csv
-最终形状- Python时出现问题
、
、
、
、
我正在
将
一个大型
数据
库读入多个
数据
帧
。每次都有效。所以我有单独的
数据
帧
。然后,我
将
每个
数据
帧
写入
csv
文件
。最初它有34列。在此之后,我
将
csv
文件
读取到一个新的
数据
帧
中,现在我有35列。我这样做是为了
写入
csv
文件
: df.to_
浏览 29
提问于2020-08-18
得票数 1
回答已采纳
2
回答
使用dataframe
scala
创建
文件
名为时间戳的
csv
文件
、
、
、
我有一个
数据
帧
,
数据
如下。|1.0 ||football |2.0 |我想将上面的
数据
帧
写入
一个
csv
文件
,其中的
文件
名将使用当前时间戳创建。给出了以下错误有没有更好的方式来使用
scala</em
浏览 29
提问于2021-03-02
得票数 2
回答已采纳
1
回答
使用pandas导出和索引
csv
文件
、
、
、
我已经创建了一个带有列名的
csv
文件
,并使用pandas库保存它。这个
文件
将用于创建一个历史记录,其中的行将在不同的时刻逐个计费……为了
将
行添加到先前创建的
csv
中,我要做的是
将
记录转换为模式,然后使用to_
csv
()选择DataFrame = 'a‘作为参数,以便将此记录附加到
现有
文件
这里的问题是,我希望每次添加新行时,
文件
中都会自动生成索引和索引。我已经知道当我
将
这个
文件</e
浏览 8
提问于2020-01-06
得票数 0
1
回答
在R编程语言上读取和设置
CSV
文件
、
、
我想在这里澄清我对
将
文件
转换为
CSV
和读取它的理解。让我们使用来自R的
数据
集,标题为longley。write.table(d1, file="", sep="1,16", row.names=TRUE, col.names=TRUE) 这是不是已经变成了一个
数据
框,或者我在这里遗漏了什么现在假设我想要读取这个
CSV
文
浏览 2
提问于2015-09-20
得票数 2
2
回答
列大小问题: read_
csv
、
、
我有一个有4列的
数据
帧
。为了在本地计算机上工作,我必须将此
数据
帧
转换为
csv
。当我
将
dataframe转换为
csv
时,我只有一列:print df.info() RangeIndex: 20479 entries, 0 to 20478 Data
浏览 1
提问于2017-10-06
得票数 0
1
回答
Spark
数据
帧
将
数据
丢失到s3
、
、
我有一个spark
数据
帧
,其中包含经过清理的
数据
。我在
数据
框中总共有512条记录。在
写入
S3之前,我
将
重新分区到单个
文件
,因为我的记录总数很少,并且我希望保持较少的分区数量。val t =tripAttributesDF.repartition(1).save("s3://<Bucket>&
浏览 0
提问于2017-11-12
得票数 0
1
回答
在
Scala
中使用dataset创建
CSV
、
、
我已经从
scala
中的
数据
集创建了
CSV
文件
。它正在创建
CSV
文件
,但是它是0字节的。当通过dbutils.fs.head(
csv
_path)读取时,其给出的错误 "java.lang.IllegalArgumentException:无法指向目录:
csv
_path“ ```result_dataset.coalesce(1) .write.format("com.databricks.spark.
csv
&quo
浏览 35
提问于2020-10-15
得票数 0
1
回答
PySpark
将
两个
数据
文件
写入
同一个分区,但由
文件
夹分隔
、
、
、
我使用Spark
将
两个不同的
数据
文件
写入
到同一个分区,但我希望它们在分区的末尾被
文件
夹分隔。也就是说,第一个
数据
帧
将
写入
yyyy/mm/dd/,第二个
数据
帧
将
写入
yyyy/mm/dd/rejected/ 目前,我可以使用以下代码
将
第一个
数据
帧
浏览 0
提问于2020-07-12
得票数 1
回答已采纳
点击加载更多
相关
资讯
用 Python 将数据写到 CSV 文件
Bash 脚本中如何使用 here 文档将数据写入文件
使用Spark将本地文件读取并封装为DataFrame的完整指南
Python读取JSON键值对并导出为.csv表格
Python链式操作:PyFunctional
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券