前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Spark 设置 Hadoop 的配置文件

Spark 设置 Hadoop 的配置文件

原创
作者头像
ZHANGHAO
修改2019-01-28 09:35:23
4.5K0
修改2019-01-28 09:35:23
举报
文章被收录于专栏:张浩的专栏张浩的专栏

当我们在开发Spark应用程序的时候,没有设置Hadoop的配置文件的情况下来读取或者写入HDFS文件,每次都要写上hdfs://host:port/path如下图所示。

通过设置Hadoop的配置之后,我们就可以直接在Spark开发的时候上写上HDFS上的文件路径即可读取相应的文件。

Spark设置Hadoop配置文件

当SparkContext创建的时候,会去读取classpath下的core-default.xml和core-site.xml文件,所以我们可以将我们的Hadoop全局配置文件core-site.xml放到项目的resources文件夹下,来让Spark读取Hadoop配置。

我们还可以用代码的方式来设置我们的Hadoop配置,通过sc.hadoopConfiguration.set(name,value)的方式。

要加载特定命名的配置文件,可以使用sc.hadoopConfiguration.addResource("custom.xml")

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Spark设置Hadoop配置文件
相关产品与服务
大数据
全栈大数据产品,面向海量数据场景,帮助您 “智理无数,心中有数”!
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档