首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >spark提交在类路径中添加多个jars

spark提交在类路径中添加多个jars
EN

Stack Overflow用户
提问于 2015-03-17 20:29:07
回答 9查看 133K关注 0票数 44

我正在尝试运行一个spark程序,其中我有多个jar文件,如果我只有一个jar文件,我就无法运行。我想添加位于相同位置的两个jar文件。我已经尝试了下面的代码,但它显示了一个依赖错误

代码语言:javascript
运行
复制
spark-submit \
  --class "max" maxjar.jar Book1.csv test \
  --driver-class-path /usr/lib/spark/assembly/lib/hive-common-0.13.1-cdh​5.3.0.jar

如何添加同一目录中的另一个jar文件?

我想添加/usr/lib/spark/assembly/lib/hive-serde.jar

EN

Stack Overflow用户

发布于 2018-11-23 16:07:50

对于--driver-class-path选项,您可以使用:作为分隔符来传递多个jars。下面是使用spark-shell命令的示例,但我猜同样的方法也适用于spark-submit

代码语言:javascript
运行
复制
    spark-shell --driver-class-path /path/to/example.jar:/path/to/another.jar

Spark版本: 2.2.0

票数 0
EN
查看全部 9 条回答
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/29099115

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档