腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
Spark
将
CSV
内容
读取
为
空
、
我正在尝试
读取
CSV
文件,以便可以
使用
Spark
SQL查询它。
CSV
如下所示: 16;10;9/6/2018
CSV
文件不包含标题,但我们知道第一列是部门代码,第二列是建筑代码,第三列是m/d/YYYY格式的日期。我编写了以下代码来加载带有自定义模式的
CSV
filesv: StructType sch = DataTypes.createStructType(new StructField[] {(sch)
浏览 33
提问于2019-06-04
得票数 4
回答已采纳
2
回答
处理星火中的模式不匹配
、
我正在
使用
Scala中的
Spark
读取
一个
csv
文件。模式是预定义的,我正在
使用
它进行阅读。session .appName("Parquet Converter")val dataFrame: DataFrame =
浏览 0
提问于2018-11-14
得票数 5
回答已采纳
1
回答
Spark
SQL: null值被转换为结果文件中的空字符串
、
、
、
我用AWS编写了一个脚本,用于从AWS S3
读取
CSV
文件,对少数字段进行
空
检查,并将结果作为新文件存储回S3。问题是,当遇到字符串类型的字段时,如果值
为
null,则转换为空字符串。以下是到目前为止编写的脚本:
spark
= glueContext.
spark
_sessiondatasource_df = datasource.toDF() datasource_df.cr
浏览 1
提问于2017-10-03
得票数 0
回答已采纳
1
回答
将
csv
读入Dataset[T],其中T是Option[BigDecimal]字段的一个case类。
、
在本例中,T是一个包含字段x: OptionBigDecimal的case类Exception in thread "main" org.apache.
spark
.sql.AnalysisException") .load(file)我的case类反映了
使用
Option[T]
读取
的表,该表用于
浏览 1
提问于2018-03-26
得票数 4
1
回答
Pyspark:
将
缺少的值作为空字符串处理
、
我希望
将
csv
中缺少的值视为空字符串。如何在以
csv
格式
读取
文件的同时执行此操作?我曾尝试
使用
spark
.read.
csv
()..option("treatEmptyValuesAsNulls","false"),但它将
空
值视为
空
值。
浏览 10
提问于2019-12-03
得票数 0
1
回答
空
列不在字符串列表中奇怪的结果
、
当
使用
spark
SQL语句时,我得到了一些奇怪的结果,如:如果我把somecol设置
为
ABC如果我将它设置
为
XXX,它将返回一行。 但是,如果我
将
列保留
为
空
,例如,在
CSV
数据中(因此该值被
读取
为
null),则它仍然不会返回任何
内容
,即使null不
浏览 2
提问于2022-06-10
得票数 0
1
回答
如何在pyspark中
使用
schema
读取
csv
、
、
我知道如何用pyspark
读取
csv
文件,但我在加载正确格式的
csv
文件时遇到了很多问题。我的
csv
有3列,其中第一列和第二列是字符串,但第三列是字典列表。我无法加载这最后一列。
浏览 68
提问于2019-09-26
得票数 0
1
回答
强制
spark
.read()和inferSchema=True一起设置不可
空
的数值列
、
、
在
读取
带有推断模式的文件(
使用
Spark
2.0)之后:
spark
= SparkSession.builder.appName('foo').getOrCreate() 所有列(string和numeric )都是可
空
的。但是,如果我
浏览 3
提问于2017-09-14
得票数 2
1
回答
使用
spark
scala
读取
列值
为
空
的
CSV
文件时出错
我正在尝试
使用
spark
Scala分析
CSV
文件,但问题是我的
CSV
文件包含
空
值的列,所以当从
CSV
文件
读取
数据时,我得到的错误
为
java.lang.ArrayIndexOutOfBoundException:12 我在
CSV
文件中的总列数是13,但有1列包含
空
值。
浏览 7
提问于2017-07-01
得票数 0
1
回答
从
csv
读取
数据
将
返回空值。
、
、
我试图
使用
Scala和
Spark
从
csv
读取
数据,但是列的值
为
null。def createDataSchema但它们作为包含
空
值的列表返回(值
为</
浏览 0
提问于2019-09-11
得票数 2
1
回答
在
Spark
中的数据帧中选择非
空
值
、
我正在
读取
Spark
2.0中的
CSV
文件,并
使用
以下
内容
计算列中的非
空
值:当我
使用
spark
-shell测试它时,它工作得很好。当我创建一个包含代码的jar文
浏览 5
提问于2016-11-19
得票数 2
1
回答
指定
Spark
Schema不会显示正确的显示结果
、
、
、
我
为
我的
spark
代码指定了模式,但是结果都返回NULL。然而,当I inferSchema=True,header=True时,我得到了正确的结果。longitude", DoubleType(), True) ,StructField("country", StringType(), True)]) 当我应用模式
将
文件作为数据帧读入时,如下所示: testzip =
spark
.read.
csv
("adl:/
浏览 35
提问于2020-01-12
得票数 0
回答已采纳
3
回答
我可以
使用
spark
-
csv
将
表示
为
字符串的
CSV
读取
到Apache
Spark
中吗
、
、
我知道如何
使用
spark
-
csv
()
将
csv
文件
读取
到
spark
中,但我已经
将
csv
文件表示
为
字符串,并希望将此字符串直接转换为数据帧。这个是可能的吗?
浏览 4
提问于2016-08-24
得票数 7
回答已采纳
1
回答
带验证的
Spark
read
csv
、
、
我正在
使用
spark
的
读取
功能
读取
csv
文件sparkSession.read.option("delimiter",",").schema(schema).
csv
("test.
csv
").as[Customclass] 问题是,当某一行在
浏览 14
提问于2018-02-06
得票数 0
回答已采纳
1
回答
spark
.read。从零件文件
读取
数据时,
将
空字符串
读取
为
null
、
、
让我们考虑包含以下数据的
csv
文件 Id、职务、年份 1,,2000
CSV
读卡器代码: var inputDFRdd =
spark
.emptyDataFrame.rdd .option("mode", "FAILFAST") .option("delimiter\&qu
浏览 49
提问于2021-09-16
得票数 0
1
回答
读取
文件列表而不是星火中的路径是否有效?
、
、
、
我在蓝色数据库中
使用
火花放电。并需要加载数千个文件作为文件的列表。
使用
“多深度分区”,这使得很难
使用
基本路径
读取
文件。因此,我们
将
所有
内容
作为文件列表来
读取
,我想知道当您
使用
以下方法
读取
文件时,性能是否相同:
spark
.read.format('
csv
').load('/mnt/article/2021/08/0
浏览 4
提问于2021-09-01
得票数 2
回答已采纳
1
回答
如何用星火从
csv
文件中写入avro文件?
、
、
、
、
当我试图从
csv
文件创建的DF中编写avro文件时,我面临着一个NullPointerException: SparkSession\sparkCsvToAvro\\src\\main\\resources"; Dataset<Row>
csv
= read.
csv
(path); DataFrameWriter<Row>
浏览 7
提问于2017-05-09
得票数 0
回答已采纳
1
回答
将
spark
.read拼图放入数据帧中,则为
空
值。
、
、
、
、
我是PySpark的新手,长话短说:我有一个拼花文件,我正在尝试阅读它并与
SPARK
一起
使用
它,但目前我可以: .schema(location_schema) \然后
将
所有
内
浏览 2
提问于2022-02-27
得票数 0
2
回答
如何
将
csv
文件加载到SparkSession中
、
我用谷歌搜索了一下,发现如何
使用
以下代码
将
csv
文件
读取
到
Spark
DataFrame中from pyspark.sql import SparkSession
spark
= SparkSession.builder.getOrCreate()p
浏览 3
提问于2020-09-15
得票数 0
14
回答
火花加载
CSV
文件作为DataFrame?
、
、
、
、
我想在
spark
中
读取
CSV
,并将它转换为DataFrame,然后用df.registerTempTable("table_name")存储在HDFS中。我试过:我发现的错误: java.lang.RuntimeException: hdfs://
浏览 33
提问于2015-04-17
得票数 164
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Spark将本地文件读取并封装为DataFrame的完整指南
灵活强大:iObjects Java for Spark模块扩展开发
英雄惜英雄-当Spark遇上Zeppelin之实战案例
一个Python大数据处理利器:PySpark入门指南
机器学习实践:如何将Spark与Python结合?
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券