首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >spark提交在类路径中添加多个jars

spark提交在类路径中添加多个jars
EN

Stack Overflow用户
提问于 2015-03-17 20:29:07
回答 9查看 133K关注 0票数 44

我正在尝试运行一个spark程序,其中我有多个jar文件,如果我只有一个jar文件,我就无法运行。我想添加位于相同位置的两个jar文件。我已经尝试了下面的代码,但它显示了一个依赖错误

代码语言:javascript
运行
复制
spark-submit \
  --class "max" maxjar.jar Book1.csv test \
  --driver-class-path /usr/lib/spark/assembly/lib/hive-common-0.13.1-cdh​5.3.0.jar

如何添加同一目录中的另一个jar文件?

我想添加/usr/lib/spark/assembly/lib/hive-serde.jar

EN

回答 9

Stack Overflow用户

回答已采纳

发布于 2017-09-11 17:34:27

我试图从使用spark-submit执行的python代码连接到mysql。

我使用的是使用Ambari的HDP沙箱。尝试了很多选项,如--jars--driver-class-path等,但都不起作用。

解决方案

/usr/local/miniconda/lib/python2.7/site-packages/pyspark/jars/中复制jar

到目前为止,我不确定这是一个解决方案还是一个快速解决方案,但由于我在POC上工作,所以它对我来说是可行的。

票数 5
EN

Stack Overflow用户

发布于 2015-03-17 21:22:49

只需使用--jars参数。Spark将与executors共享这些jars (以逗号分隔)。

票数 43
EN

Stack Overflow用户

发布于 2016-04-27 10:52:12

为所有其他jars指定完整路径是可行的。

代码语言:javascript
运行
复制
./bin/spark-submit --class "SparkTest" --master local[*] --jars /fullpath/first.jar,/fullpath/second.jar /fullpath/your-program.jar

或者通过添加如下行在conf/spark-defaults.conf中添加jars:

代码语言:javascript
运行
复制
spark.driver.extraClassPath /fullpath/firs.jar:/fullpath/second.jar
spark.executor.extraClassPath /fullpath/firs.jar:/fullpath/second.jar
票数 37
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/29099115

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档