腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
使用
apache
spark
加载
一个
非常大
的
csv
文件
、
我需要
使用
Apache
Spark
加载
巨大
的
csv
文件
。 到目前为止,我
使用
Apache
Spark
的
read方法
加载
了不同
的
文件
。我没有遇到任何问题。然而,
文件
大小并不大,大约是100兆字节。现在我收到了一些可伸缩性问题,比如:“如果
文件
不适合驱动程序
的
内存,会发生什么?”
spar
浏览 41
提问于2019-04-30
得票数 0
2
回答
Spark
SQL -如何将DataFrame写入文本
文件
?
、
我正在
使用
Spark
SQL读拼图和写拼图
文件
。 但在某些情况下,我需要将DataFrame编写为文本
文件
,而不是Json或Parquet。是否支持任何默认方法,或者我必须将该DataFrame转换为RDD,然后
使用
saveAsTextFile()方法?
浏览 1
提问于2016-03-15
得票数 11
回答已采纳
3
回答
spark
-shell中未
加载
CSV
格式
、
、
、
、
使用
spark
1.6,我尝试了以下代码:它导致了这个错误 error: not found: value <e
浏览 6
提问于2020-04-29
得票数 1
1
回答
如何
使用
Spark
和winutils访问windows中
的
文件
?
我正在
使用
winutils运行windows上
的
星星之火。在
spark
中,试图
加载
一个
csv
文件
,但它写
的
是Path does not exist,也就是说,我在E:/data.
csv
位置有
一个
文件
。我正在执行: scala> val df =
spark
.read.option("header","true").
cs
浏览 1
提问于2019-05-20
得票数 0
1
回答
根据scala中
的
数据类型映射每个列
、
、
、
sc = new SparkContext("local[*]", "TotalSpentByCustomer") 获取误差 值reduceByKey不是org.
apache
.
spark
.rdd.RDD(Int,Int,Float
浏览 7
提问于2022-01-17
得票数 0
3
回答
无法在
spark
2.2中
使用
SQLContext对象创建数据格式
、
、
、
我在Microsoft 7上
使用
spark
2.2 version。我希望在
一个
变量中
加载
csv
文件
,以便稍后执行与SQL相关
的
操作,但无法这样做。我引用了链接中接受
的
答案,但没有用。下面是创建SparkContext对象和SQLContext对象
的
步骤:import org.
apache
.
sp
浏览 4
提问于2017-12-25
得票数 2
回答已采纳
1
回答
R:
使用
spark
合并两个
csv
文件
、
我有两个
非常大
的
csv
文件
,我正在
使用
spark
和R。我
的
第
一个
文件
是这样上传
的
:在处理完第
一个
文件
后,我得到了以下变量:具有以下变量
的
第二个
cs
浏览 0
提问于2019-11-04
得票数 1
1
回答
我将相同
的
方法应用于
spark
scala中
的
多个数据帧,如何将其并行化?
、
我目前正在遍历我
的
所有数据帧,并在它们上运行本质上相同
的
查询/过滤器。有没有一种方法可以更有效地并行运行?以下是示例代码...for (db <- list_of_dbs) .format("
csv
") .option("inferSchema","true")
浏览 18
提问于2020-08-28
得票数 0
1
回答
将
csv
读入包含时间列
的
hdfs将不起作用
、
我想将
一个
带有时间列
的
csv
读入hadoop,在hadoop中,时间列将作为字符串读入。val
spark
: SparkSession = SparkSession.builder(
浏览 0
提问于2019-07-25
得票数 0
2
回答
如何以自定义格式
加载
带有时间戳
的
CSV
?
、
、
、
我在
csv
文件
中有
一个
时间戳字段,我
使用
spark
库将其
加载
到dataframe中。同一段代码在我
的
本地机器上
使用
Spark
2.0版本,但在Azure Hortonworks HDP 3.5和3.6上抛出
一个
错误。我已经检查过了,Azure HDInsight 3.5也在
使用
相同
的
Spark
版本,所以我不认为这是火花版本
的
问题。(Univocit
浏览 3
提问于2017-04-06
得票数 9
1
回答
如何在
Spark
3.x中初始化SparkSession
、
我一直在学习
Spark
&Scala,并在IntelliJ中设置了
一个
环境。我以前一直
使用
SparkContext成功地初始化我
的
Spark
实例,
使用
以下代码:val sc = new SparkContext("local[*]", "SparkTest") 当我尝试
加载
.
csv
数据时,我发现
的</e
浏览 9
提问于2022-06-23
得票数 0
回答已采纳
1
回答
从AWS向aws EMR集群提交
spark
作业
、
、
、
、
我正在尝试从命令行aws中正确地向我
的
aws集群添加
一个
火花步骤。我有
一个
大
的
数据集(数千个.
csv
文件
),我需要阅读和分析。我有
一个
python脚本,看起来类似于:import pandas as pdsqlContext = SQLContext(sc) df = sqlContext.read.format(&q
浏览 2
提问于2018-06-04
得票数 0
14
回答
火花
加载
CSV
文件
作为DataFrame?
、
、
、
、
我想在
spark
中读取
CSV
,并将它转换为DataFrame,然后用df.registerTempTable("table_name")存储在HDFS中。我试过:我发现
的
错误: at parq
浏览 33
提问于2015-04-17
得票数 164
回答已采纳
1
回答
在基于目录
的
spark
加载
中避免“路径不存在”
、
我
使用
通配符从
一个
目录
加载
多个
文件
,如下所示- val df: DataFrame =
spark
.read .option("delimiter", ",") .load(inputPath + "/*.
csv
*") 这在大多数情况下都很好
浏览 41
提问于2020-08-27
得票数 0
回答已采纳
1
回答
如何在dataframe scala中读取列之间包含空格
的
csv
文件
?
、
、
、
已尝试
加载
列之间包含空格
的
csv
文件
。20200101 00000020200630 000000IMMEDIATE 1600 20200630 000000
使用
的
示例脚本: import org.
apache
.
spark
.sql.{SQLContext, SparkSession} import org.
apache
.
spark
.{SparkC
浏览 27
提问于2020-08-26
得票数 0
1
回答
为什么
Spark
在读取文本
文件
时将RDD ID增加2而不是1?
、
、
在
使用
spark
-shell时,我注意到了一些有趣
的
事情,我很好奇为什么会发生这种情况。我
使用
基本语法将
一个
文本
文件
加载
到
Spark
中,然后简单地重复这个命令。REPL
的
产出如下:myreviews: org.
apache
.
spark
.rdd.RDD[St
浏览 0
提问于2018-11-29
得票数 0
回答已采纳
2
回答
读取
csv
函数时出错
、
在google计算集群中,我正在尝试
使用
sparklyr包将
csv
文件
读取到strudio中。配置如下:install.packages("sparklyr")
spark
_install(version = "1.6.2") Sys.setenv(
SPARK
_HOME="/usr/
浏览 1
提问于2017-04-05
得票数 0
1
回答
在scala中
使用
函数时得到错误类型不匹配
、
、
import org.
apache
.
spark
.sql.{SparkSession, DataFrame}{ val
spark
= SparkSession.builder("inferschema","true").option("header","true").
csv
("o
浏览 1
提问于2021-12-09
得票数 0
1
回答
Spark
2.2.0-
加载
一个
特定
的
文件
列表
、
我想将
一个
特定
的
文件
列表
加载
到
Spark
中。我创建了
一个
UDF,它过滤了
文件
列表,因此我获得了
一个
带有我想要
加载
的
文件
的
Seq<String>。我正在尝试
使用
org.
apache
.
spark
.sql.DatasetString)org.
apache
.
spark
.sql.DataFr
浏览 0
提问于2018-05-01
得票数 2
回答已采纳
2
回答
将大量
CSV
文件
转换为拼花
文件
、
、
我有大量
的
CSV
文件
,需要转换为拼花
文件
,
使用
火种。
一个
CSV
就是
一个
Parquet。000.
csv
002.
csv
000.parquet002.parquetfor each_
csv</
浏览 4
提问于2020-06-04
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Python处理.CSV格式文件的内容
Python,Django加载自己的HTML,模板的使用和加载css文件
在云中使用Apache Hadoop,Spark和Hive的6个理由
csv 文件读写乱码问题的一个简单解决方法
盘点一个dbeaver导入csv文件到sql server报错的一个问题
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券