前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >spark任务提交时绝对路径添加额外配置文件提示找不到路径

spark任务提交时绝对路径添加额外配置文件提示找不到路径

作者头像
YG
发布2018-05-23 17:21:06
2.7K0
发布2018-05-23 17:21:06
举报
文章被收录于专栏:YG小书屋YG小书屋

spark任务提交,添加额外配置文件时用绝对路径读取不到上传的文件。

代码语言:javascript
复制
/usr/local/spark-2.1.0-bin-hadoop2.7/bin/spark-submit --name str_platform_test_80 --master yarn --deploy-mode client --executor-cores 1 --num-executors 2 --executor-memory 1G --driver-memory 4G --conf spark.yarn.queue=radar --conf spark.driver.cores=4 --conf spark.driver.maxResultSize=10G --conf spark.yarn.submit.waitAppCompletion=false --conf spark.rpc.message.maxSize=2000 --conf spark.network.timeout=600s --conf spark.executor.heartbeatInterval=300s  
--files /tmp/computeA_run_spark.py,/tmp/computeA1524709482.7682726_output_data.conf /home/guomm/script/spark_run.py computeA1524709482.7682726_output_data.conf computeA

在spark_run脚本中读取computeA_run_spark.py和computeA1524709482.7682726_output_data.conf失败,提示找不到文件。

代码语言:javascript
复制
cd tmp
/usr/local/spark-2.1.0-bin-hadoop2.7/bin/spark-submit --name str_platform_test_80 --master yarn --deploy-mode client --executor-cores 1 --num-executors 2 --executor-memory 1G --driver-memory 4G --conf spark.yarn.queue=radar --conf spark.driver.cores=4 --conf spark.driver.maxResultSize=10G --conf spark.yarn.submit.waitAppCompletion=false --conf spark.rpc.message.maxSize=2000 --conf spark.network.timeout=600s --conf spark.executor.heartbeatInterval=300s  --files computeA_run_spark.py,computeA1524709482.7682726_output_data.conf /home/guomm/script/spark_run.py computeA1524709482.7682726_output_data.conf computeA

只有cd到 tmp目录,用相对文件路径提交时才可以。 原因是spark将文件上传到集群时,会找/tmp/computeA_run_spark.py的路径,找不到,没上传成功或者上传成功放入了别的路径(没看到spark提示上传文件失败)。因此在你spark脚本执行的时候调用computeA_run_spark.py提示找不到文件。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018.05.08 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档