腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
3
回答
在
spark
1.6
中将
csv
读取
为
数据
帧
、
我使用的是
Spark
1.6
,正在尝试将
csv
(或tsv)文件
读取
为
数据
帧
。以下是我采取的步骤:scala> import sqlContext.implicits._scala> .format("com.databric
浏览 12
提问于2016-07-27
得票数 2
1
回答
如何在
spark
中将
数据
帧
转换为
csv
、
、
如何在
spark
中将
数据
帧
转换为
csv
dataFrame =
spark
.read.
csv
("testData2.
csv
",header='true')
浏览 1
提问于2018-01-05
得票数 0
1
回答
spark
.read。从零件文件
读取
数据
时,将空字符串
读取
为
null
、
、
让我们考虑包含以下
数据
的
csv
文件 Id、职务、年份 1,,2000
CSV
读卡器代码: var inputDFRdd =
spark
.emptyDataFrame.rdd .option("mode", "FAILFAST") .option("deli
浏览 49
提问于2021-09-16
得票数 0
3
回答
spark
-shell中未加载
CSV
格式
、
、
、
、
使用
spark
1.6
,我尝试了以下代码:它导致了这个错误 error: not found: value <e
浏览 6
提问于2020-04-29
得票数 1
1
回答
如何在pyspark
中将
数据
帧
的输出写入
CSV
文件
、
我想将模型输出保存到
CSV
文件中。我用过但是它抛出一个错误,声明saveAstextFile属性不在列表中。sc = SparkContext() inData = sc.textFile("hdfs://ML_test_data/train2.
csv
浏览 18
提问于2017-07-05
得票数 0
3
回答
我可以使用
spark
-
csv
将表示
为
字符串的
CSV
读取
到Apache
Spark
中吗
、
、
我知道如何使用
spark
-
csv
()将
csv
文件
读取
到
spark
中,但我已经将
csv
文件表示
为
字符串,并希望将此字符串直接转换为
数据
帧
。这个是可能的吗?
浏览 4
提问于2016-08-24
得票数 7
回答已采纳
2
回答
Spark
SQL :是否可以从外部源
读取
自定义模式,而不是
在
spark
代码中创建它?
、
、
尝试
在
没有架构推断的情况下加载
csv
文件。通常,我们
在
spark
代码
中将
模式创建
为
StructType。是否可以将模式保存在外部文件(可能是属性/配置文件)中,并在创建
数据
帧
时动态
读取
它?
浏览 2
提问于2018-11-13
得票数 2
2
回答
调用map后的EOFError
、
、
我是
spark
& pyspark的新手。df = sqlContext.read.format('com.databricks.
spark
.
csv
').options(header='true', inferschema='true').load('/
浏览 2
提问于2016-04-13
得票数 23
1
回答
如何使用sql Context将DataFrame转换为RDD
我已经使用sqlContext创建了
读取
csv
文件的
数据
帧
,我需要从其
中将
表的一列转换为RDD,然后使用密集向量执行矩阵乘法。我发现这样做很困难。val df = sqlContext.read .option("header","true") .option("inferSchema","true
浏览 0
提问于2016-12-06
得票数 1
1
回答
使用PySpark从Blob存储容器加载
CSV
文件
、
、
、
我无法使用Jupyter Notebook中的PySpark将
CSV
文件从Azure Blob Storage直接加载到RDD中。我知道我也可以使用Pandas将
数据
加载到Notebook中,但之后我需要将Panda DF转换为RDD。 我理想的解决方案应该是这样的,但是这个特定的代码给我的错误是它不能推断出
CSV
的模式。#Load Data source = <Blob SAS URL> elog =
spark
.read.format("
csv
").option(&qu
浏览 21
提问于2019-04-28
得票数 0
1
回答
如何通过将dataframe作为输入来编写pytest,以获取palantir foundry中所有必需的值
、
、
、
我可以通过手动提供列名和值来创建
数据
框,并将其传递给生产代码以检查palantir foundry代码库中所有转换后的字段值,从而编写pytest函数。我不想手动传递列名及其各自的值,而是希望将所有必需的
数据
存储
在
dataset中,并将该
数据
集导入pytest函数以获取所有所需的值,然后传递给生产代码以检查所有转换后的字段值。是否可以接受
数据
集作为planatir代码库中测试函数的输入。
浏览 7
提问于2020-11-17
得票数 2
1
回答
来自
spark
.read.format的错误
数据
帧
(‘
csv
’)
、
、
、
我使用以下代码
在
pyspark
中将
csv
文件作为dataframe
读取
它对大多数文件都能完美地工作,但我
在
一些文件上遇到了错误。预期的
数据
帧
id name code remar
浏览 0
提问于2020-04-25
得票数 0
1
回答
“格式()”
在
火花放电中加载
数据
时做什么
、
我开始使用
spark
,通常在从云中加载
数据
时,我会看到以下代码我的问题如下:这里我们似乎有两个
数据
集:一个是com.databricks.
浏览 0
提问于2017-03-06
得票数 0
1
回答
JavaSpark
1.6
CSV
文件
、
、
我使用
spark
1.6
读取
csv
文件,
为
java编写代码 JavaSparkContext jsc = new JavaSparkContext("local","Java
Spark
sqlCont
浏览 0
提问于2018-07-10
得票数 0
回答已采纳
2
回答
将
csv
文件作为
spark
数据
帧
读取
、
、
我有一个
CSV
文件和一个头文件,它必须作为
数据
帧
通过
Spark
(2.0.0和Scala 2.11.8)
读取
。
csv
数据
示例:abc,5,xxxghi,7,zzz .........当我尝试将
spark
中的
csv
数据
作为
数据
帧
读取
时,我遇到了问题,因为标题包含列(No.指项目)具有特殊字符“。我
浏览 0
提问于2017-09-06
得票数 3
2
回答
Spark
选项: inferSchema vs header = true
、
、
、
、
对的引用 我认为我需要.options("inferSchema" , "true")和.option("header", "true")来打印我的标题,但显然我仍然可以打印我的
csv
的标题。它需要额外传递一次
数据
,默认情况下为false“的含义。
浏览 0
提问于2019-07-08
得票数 13
回答已采纳
1
回答
将
数据
帧
写入
CSV
-
Spark
1.6
、
、
我正在尝试将pyspark
数据
帧
写入
CSV
。我用的是
Spark
1.6
,我正在尝试这样的东西:df.write.format('com.intelli.
spark
.
csv
).save('mycsv.
csv
')和df.write.format('com.databricks.
spark
.
csv
这些代码总是会给出类似于java.lang.ClassNotFoundException:
浏览 0
提问于2020-03-18
得票数 0
2
回答
函数将R类型转换为星点类型。
、
、
、
、
我有一个R
数据
框架,我想把它转换成远程集群上的星火
数据
帧
。我已经决定将我的
数据
框架写到一个中间的
csv
文件中,然后使用sparklyr::
spark
_read_
csv
()
读取
该文件。我这样做是因为
数据
帧
太大,不能直接使用sparklyr::sdf_copy_to()发送(我认为这是由于Livy中的限制)。我想通过编写一个函数来编程地将
数据
帧
中使用的R列类型传递到新的
spar
浏览 0
提问于2019-03-28
得票数 0
回答已采纳
1
回答
用火花将
CSV
转换为ORC
、
、
我见过Hortonworks通过
数据
源支持
Spark
1.2中的ORC的。请有人提供一个简单的例子,说明如何从星火
1.6
+加载普通的
csv
文件,并将其保存为ORC,然后将其加载
为
星火中的
数据
帧
。
浏览 10
提问于2016-04-05
得票数 3
回答已采纳
2
回答
Spark
2.0
CSV
错误
、
、
、
我正在从
1.6
升级到
spark
2,在
读取
CSV
文件时遇到问题。
在
spark
1.6
中,我会在
CSV
文件中
读取
类似这样的内容。val df = sqlContext.read.format("com.databricks.
spark
.
csv
").load(fileName)in thre
浏览 73
提问于2017-01-19
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Spark将本地文件读取并封装为DataFrame的完整指南
灵活强大:iObjects Java for Spark模块扩展开发
英雄惜英雄-当Spark遇上Zeppelin之实战案例
一个Python大数据处理利器:PySpark入门指南
数据湖中的数据格式?
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券