我正试图找到一种方法,在spark服务器上使用Livy API (or client)来推送python脚本。我试过以下几种方法。
,但是当我看到日志时,它给出的文件没有找到,因为它试图在服务器上找到路径。
R= client.upload_pyfile("/tmp/code/test.py")
,这将返回一个未来的对象,但是未创建批处理(我甚至不确定它要上传到的文件路径)。
基本上我想要的是-
发布于 2018-01-19 16:38:27
使用Livy JAVA客户端,我也可以这样做。我已经将jar上传到Livy Server并提交了Spark作业。
您可以参考下面的链接。https://livy.incubator.apache.org/docs/latest/programmatic-api.html
注意: 1.等待livy客户端成功上传jar/文件。2. jar/文件应该在livy服务器或HDFS中可用,而HDFS是livy服务器可以访问的。
https://stackoverflow.com/questions/43467015
复制相似问题