我正在尝试运行一个spark程序,其中我有多个jar文件,如果我只有一个jar文件,我就无法运行。我想添加位于相同位置的两个jar文件。我已经尝试了下面的代码,但它显示了一个依赖错误
spark-submit \
--class "max" maxjar.jar Book1.csv test \
--driver-class-path /usr/lib/spark/assembly/lib/hive-common-0.13.1-cdh5.3.0.jar如何添加同一目录中的另一个jar文件?
我想添加/usr/lib/spark/assembly/lib/hive-serde.jar。
发布于 2017-09-11 17:34:27
我试图从使用spark-submit执行的python代码连接到mysql。
我使用的是使用Ambari的HDP沙箱。尝试了很多选项,如--jars、--driver-class-path等,但都不起作用。
解决方案
在/usr/local/miniconda/lib/python2.7/site-packages/pyspark/jars/中复制jar
到目前为止,我不确定这是一个解决方案还是一个快速解决方案,但由于我在POC上工作,所以它对我来说是可行的。
发布于 2015-03-17 21:22:49
只需使用--jars参数。Spark将与executors共享这些jars (以逗号分隔)。
发布于 2016-04-27 10:52:12
为所有其他jars指定完整路径是可行的。
./bin/spark-submit --class "SparkTest" --master local[*] --jars /fullpath/first.jar,/fullpath/second.jar /fullpath/your-program.jar或者通过添加如下行在conf/spark-defaults.conf中添加jars:
spark.driver.extraClassPath /fullpath/firs.jar:/fullpath/second.jar
spark.executor.extraClassPath /fullpath/firs.jar:/fullpath/second.jarhttps://stackoverflow.com/questions/29099115
复制相似问题