前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >第6天:核心概念之SparkFiles

第6天:核心概念之SparkFiles

作者头像
会呼吸的Coder
发布2021-03-16 10:21:36
1.3K0
发布2021-03-16 10:21:36
举报
文章被收录于专栏:会呼吸的Coder
在Apache Spark中,我们可以使用通过相关函数来共享文件。
本文主要讲解如何在Spark中应用共享文件。

概念

在Apache Spark中,我们可以使用sc.addFile函数来上传文件。 文件上传后,我们可以在Worker的工作节点中通过SparkFiles.get函数获取上次文件后的文件路径。

实战

SparkFiles类包含如下两个方法,下面,我们通过一个实例来了解这个函数的功能:

get(filename):它可以查询通过SparkContext.addFile()上传的文件的完整路径。

一个Demo如下:

代码语言:javascript
复制
from pyspark import SparkContext
 
from pyspark import SparkFiles
 
finddistance = "/home/hadoop/examples_pyspark/finddistance.R"
 
finddistancename = "finddistance.R"
 
sc = SparkContext("local", "SparkFile App")
 
sc.addFile(finddistance)
 
print "Absolute Path -> %s" % SparkFiles.get(finddistancename)
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-03-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 初级程序员 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 在Apache Spark中,我们可以使用通过相关函数来共享文件。
  • 本文主要讲解如何在Spark中应用共享文件。
  • 概念
  • 实战
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档