我正在尝试运行一个spark程序,其中我有多个jar文件,如果我只有一个jar文件,我就无法运行。我想添加位于相同位置的两个jar文件。我已经尝试了下面的代码,但它显示了一个依赖错误
spark-submit \
--class "max" maxjar.jar Book1.csv test \
--driver-class-path /usr/lib/spark/assembly/lib/hive-common-0.13.1-cdh5.3.0.jar如何添加同一目录中的另一个jar文件?
我想添加/usr/lib/spark/assembly/lib/hive-serde.jar。
发布于 2018-11-23 16:07:50
对于--driver-class-path选项,您可以使用:作为分隔符来传递多个jars。下面是使用spark-shell命令的示例,但我猜同样的方法也适用于spark-submit
spark-shell --driver-class-path /path/to/example.jar:/path/to/another.jarSpark版本: 2.2.0
https://stackoverflow.com/questions/29099115
复制相似问题