腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Spark
提交
中
的
Json
参数
、
、
、
我
的
spark
-submit命令:
spark
-submit --deploy-mode cluster --class
spark
_package.import_jar s3://test-system\", \"clusterid\": \"test\", \"clientCd\": \"1000\", \"processid\": \"1234\"} }"
浏览 18
提问于2019-01-12
得票数 0
回答已采纳
2
回答
如何将
json
存储到aws
参数
存储或从aws
参数
存储获取
json
、
、
、
、
我使用Livy REST API
提交
Spark
应用程序。我希望my_conf (
json
secrets)存储在AWS SSM
参数
存储
中
,并在我使用Livy
的
python脚本
提交
spark
应用程序时从
参数
存储中使用它。如何向/从
参数
存储
中
存储和获取(在python
中
获取相同
的
json
) my_conf?
浏览 0
提问于2020-02-21
得票数 1
1
回答
将配置文件放入HDFS问题中
的
Spark
提交
方式
、
、
、
我有一个
spark
程序,需要传递一个配置文件作为主方法
的
参数
。当前,当我以纱线集群模式
提交
作业时,我需要将配置文件放在所有的工作节点中,以便程序能够找到它。但是,我想把它放到HDFS路径
中
,但是会得到文件未找到
的
错误。下面是我使用
的
命令:--name StreamingApp \--class com.test.streaming.App-0.0
浏览 1
提问于2021-12-28
得票数 0
1
回答
当我传递一个
参数
时,火花-
提交
FileNotFoundException
、
、
我正在运行一个fat jar文件(由sbt程序集生成)和火花
提交
。这是scala文件
的
主要内容:import antarctic.utils.Utils.withSpark\DataQuality.jar" "path\to\
json
\mongoDocs.
json
" "validations" "process-id-1" &
浏览 1
提问于2020-07-02
得票数 0
1
回答
火花
提交
命令
中
的
命令行
参数
中
是否有字符
的
限制?
、
、
、
我也想知道是否有什么特殊
的
字符,我们不能用在
参数
的
火花
提交
命令?那么,我们是否必须在集群上运行我们
的
其他程序(安装了
spark
的
linux机器)才能运行我
的
spark
程序?
浏览 2
提问于2015-07-23
得票数 1
1
回答
在火花/木星
中
设置
spark
.local.dir
、
、
、
我正在使用木星笔记本
中
的
Pyspark,并试图为S3编写一个大型
的
拼花数据集。如何设置这个
参数
? 我发现
的
大多数解决方案都建议在使用火花
提交
时设置它。然而,我没有使用星火
提交
和运行它作为一个脚本从木星。编辑:我正在使用
Spark
魔术处理EMR后端,我认为需要在配置<
浏览 2
提问于2018-06-29
得票数 4
0
回答
运行未在UI
中
显示
的
spark
作业
、
我已经
提交
了我在这里提到
的
spark
作业,bin/
spark
-submit --class DataSet BasicSparkJob-assembly-1.0.jar没有提到--master
参数
或
spark
.master
参数
。而不是将作业
提交
到我3节点
spark
集群。但我想知道它在哪里
提交
作业,因为它在Running Applications
中
没有显示任何信息
浏览 7
提问于2016-07-11
得票数 4
回答已采纳
2
回答
在Unix shell脚本
中
捕获火花返回代码
、
、
、
如何捕获火花
提交
作业
的
返回代码,我编写了一个shell脚本来传递
参数
,并与我
的
spark
类一起运行
spark
提交
,我使用下面的代码来捕获返回代码,但它不是working.Run
spark
是我
的
shell脚本
中
的
一个函数,它使用
spark
类和
参数
运行
spark
提交
。 exit ${ret_cod
浏览 2
提问于2015-10-28
得票数 2
回答已采纳
1
回答
火花-卡桑德拉-连接器不工作
的
火花-
提交
、
、
、
application/
json
" localhost:8998/batchessudo pyspark --packages com.datastax.
spark
:
spark
-cassandra-connector_2.10:2.0.10 --conf
spark
.cassandra.connection.host=myip 然而,无法通过火花
提交
连接。我试图传递这些
参数
,我
的
pyt
浏览 1
提问于2019-05-20
得票数 1
1
回答
AWS EMR火花步进args错误
、
、
、
我通过AWSCLI向EMR
提交
了一个火花作业,EMR步骤和火花信任作为单独
的
json
文件提供。由于某些原因,我
的
主类
的
名称作为不必要
的
命令行
参数
传递给我
的
Spark
,从而导致作业失败。\ --configurations file://conf.
json
\ --steps file://steps.
j
浏览 0
提问于2017-06-09
得票数 0
回答已采纳
1
回答
是否有可能从气流
中
触发Databricks作业,这将消耗我部署
的
Python项目?
、
,我可以让任务找到我想在Databricks
中
运行
的
笔记本- 'new_cluster': new_cluster, },但是,是否有一种方法可以告诉任务接受Python项目(或者是车轮文件
的
路径我希望创建一个流程,以便在我将更改推
浏览 4
提问于2022-10-19
得票数 1
2
回答
启用星火目录委员会
、
我正在尝试使用S3A分区(或者目录,因为我只需要确认
提交
者是否按预期工作)。我遵循这个,它应该非常简单,但是我在解决上一个问题时遇到了新
的
问题val sourceDF =
spark
.range(0, 10000)在此之后,我将client 3.1.1.jar复制到
spark
/jars文件夹
浏览 0
提问于2018-12-24
得票数 5
2
回答
使用Livy执行
Spark
作业,使用`--master yarn-cluster`而不进行系统范围
的
更改
、
我想使用从集群外部通过HTTP调用来执行
Spark
作业,其中
Spark
jar已经存在于HDFS
中
。我可以从集群节点上
的
shell
中
spark
-submit该作业,例如:
spark
-submit --class io.woolford.Main --master yarn-cluster hdfs:我还可以使用curl通过Livy
提交
命令。,只是去掉了--master yarn-cluster
参数
。乍一看,这似乎可以通过向
J
浏览 1
提问于2016-11-30
得票数 2
2
回答
用卷发把火花工作交给livy
、
、
我正在通过Curl
提交
livy (0.6.0)会话
中
的
火花作业实际上,在使用以下curl命令运行此代码时: curl -X POST -d '{"kind": "
spark
","files":["/config.
json
"],"jars":["/myjar.jar"],"
浏览 0
提问于2019-09-02
得票数 0
回答已采纳
1
回答
如何发送命名
的
params来激发
提交
、
、
我正在尝试执行一个pyspark,我需要在我
的
程序中使用一些名为args
的
程序。解决这个问题
的
任何想法
浏览 1
提问于2020-07-20
得票数 2
回答已采纳
2
回答
如何加载java属性文件并在
Spark
中使用?
、
、
我想存储
Spark
参数
,如输入文件,输出文件到Java属性文件
中
,并将该文件传递到
Spark
驱动程序
中
。我正在使用
spark
-submit
提交
作业,但找不到传递属性文件
的
参数
。你有什么建议吗?
浏览 0
提问于2015-06-29
得票数 23
回答已采纳
1
回答
如何在Kubernetes上运行基本星火程序
、
、
我试图远程运行以下程序:
spark
= SparkSession.builder.master("
spark
://<master-ip>:<master-port>").getOrCreate()这部分还不完全清楚。当我以简单
的
'people.<e
浏览 12
提问于2022-11-29
得票数 1
2
回答
禁用bash脚本输入
参数
替换
、
、
/
spark
_submit.sh ${
SPARK
_HOME}/bin/
spark
-submit --master yarn --deploy-mode cluster --conf
spark
.yarn.historyServer.address=${hadoopconf-yarn.resourcemanager.hostname}:18080 我必须对输入
参数
运行操作,所以我检查每个
参数
并重新生成原始输入。我一个接一个地获得
参数
,通过访问
浏览 1
提问于2018-05-17
得票数 0
回答已采纳
1
回答
无法从连接到EC2上
的
Cassandra
的
EMR运行
spark
作业
、
、
、
、
我正在从EMR集群运行
spark
作业,该集群连接到EC2上
的
Cassandra <groupId>org.apache.
spark
</groupId> <artifactId>
spark
-cassandra-conne
浏览 0
提问于2016-02-22
得票数 0
1
回答
星星之火-通过火花REST
提交
带有命名
参数
的
python应用程序
、
、
使用以下内容作为请求
的
主体,触发带有命名
参数
的
python应用程序
的
本地REST filename,通过火花
提交
成功地创建了驱动程序,但是执行失败
的
信息很少。是--文件名
参数
导致
的
吗?有什么想法吗?如何获得更多关于失败
的
信息?'filename.
json
'" "appResource": "file:/opt/bitnami&
浏览 3
提问于2022-01-19
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Spark提交参数说明和常见优化
JSON中的树状结构数据简介
PL/SQL中实现的解析JSON
Python中的JSON反序列化
JMeter中返回Json数据的处理方法
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券