腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Apache火花容器启动错误-
Docker
、
然后,我发现应该将
SPARK
_NO_DAEMONIZE设置为TRUE --通过使用下面的命令“bash‘ing”到
Docker
来实现这一点 然后,我尝试启动火花-‘/opt/sbin/start-master.sh. the’,然后得到了错误。org.apache.
spark
.deploy.m
浏览 5
提问于2022-08-29
得票数 0
回答已采纳
2
回答
Docker
-可以在本地引用
Docker
容器中的文件吗?
、
、
我有一个
运行
在
Docker
容器中的
Spark
集群(使用我自己制作的镜像)。一切都很好。我现在想使用Apache Livy,并且根据文档所说,我需要获取几个环境变量:export HADOOP_CONF_DIR=/etc/
浏览 4
提问于2019-04-16
得票数 0
2
回答
如何在复制的坞-组合服务的所有容器上
运行
shell命令?
、
、
我
运行
火花工作人员使用码头,复制使用码头-组合设置:
spark
-worker: -
SPARK
_MODE=worker deploy:mode: replicated repl
浏览 0
提问于2022-07-01
得票数 1
回答已采纳
1
回答
具有相同
spark
.local.dir的多个火花执行器
、
通过设置以下属性,我将在Mesos
Docker
容器上
运行
一个
Spark
应用程序。--conf '
spark
.local.dir=/var/lib/
spark
'--conf '
spark
.mesos.exec
浏览 1
提问于2016-10-13
得票数 2
回答已采纳
1
回答
从Dockerfile CMD调用sh文件时,无法在
docker
容器中设置环境变量
、
、
、
、
我能够
运行
星星团。但是,我必须给出一个启动
spark
-shell的绝对路径。我正在尝试在start-shell.sh中设置环境变量,即PATH和其他几个变量。然而,它并没有在容器中设置那个。不过,星火群集正在成功
运行
。
SPARK
_MASTER_LOG=${
SPARK
_HOME}/logs/<em
浏览 6
提问于2021-08-16
得票数 0
回答已采纳
2
回答
星星之火-提交kubernetes集群
、
、
、
但是,当我试图在我的Kubernetes集群上
运行
同一个jar文件时,它会抛出一个错误。下面是我的
spark
-submit代码以及抛出的错误。-SNAPSHOT.jar local:///C:/Users/siddh/OneDrive/Desktop/initialData.txt 最后一个local参数是wordcount程序将在其上
运行
并获取结果的数据文件, image=gcr.io/
spark
-operator/<
浏览 6
提问于2020-02-11
得票数 0
1
回答
由于权限被拒绝错误,无法从
Docker
镜像创建Dockerfile
我正在尝试从
Docker
image.Taking中提取Dockerfile查看popular answer,我执行了以下命令:
docker
run -v /var/run/
docker
.sock:/var/run/
docker
.sock --rm alpine/dfimage -sV=1.36 quay.io/opendatahub/
spark
-cluster-image:
spark
24 出现以
浏览 16
提问于2020-11-29
得票数 1
回答已采纳
4
回答
启动容器进程导致\"exec:\“driver\”:在$PATH\中找不到可执行文件“\n”
、
、
、
、
我有基于spring的
spark
2.3.0应用程序。我正在尝试在kubernetes(minikube)上做
spark
submit。下面是堆栈跟踪: start time: N/A
docker</
浏览 0
提问于2018-04-11
得票数 2
2
回答
错误:-来自后台进程的错误响应: OCI
运行
时创建失败: container_linux.go:349:启动容器进程导致“
我使用下面的代码(
docker
-Apache
spark
)安装了一个
docker
和
Docker
容器。
Docker
File:- MAINTAINER Getty Images "https://github.com/gettyimages"ENV
SPARK
_VERSION 2.4.1 ENV
SPARK
_PACKAGE
spark
-$
浏览 2
提问于2020-07-13
得票数 0
1
回答
如何使用
docker
将参数传递给
spark
-submit
、
、
我有一个
docker
容器在我的笔记本电脑上
运行
,其中有一个master和三个worker,我可以通过使用如下命令输入master的ip来启动典型的单词计数示例: bash-4.3#
spark
/bin/output-5 我可以看到这些文件是如何在output-5中生成的 但当我尝试从外部启动该进程时,使用以下命令:
docker
run --network
docker
-
spark
-cluster_
spark
-network问题是,为什么
do
浏览 24
提问于2019-03-19
得票数 1
回答已采纳
2
回答
从
Spark
作业执行sudo命令
、
我正在尝试以集群模式从
Spark
scala作业执行python脚本,如下所示。
浏览 0
提问于2018-10-22
得票数 0
1
回答
spark
docker
- image -tool找不到
docker
镜像
、
SPARK
_HOME/bin
docker
-image-tool.sh -r -t my-tag build 这返回找不到
docker
图像。此脚本必须从Apache
Spark
的可
运行
发行版
运行
。 但是所有的
spark
runnables都在这个目录中。
spark
-class
spark
-shell.cmd
spark
-sql2.cmd sparkR beel
浏览 50
提问于2020-04-08
得票数 0
1
回答
使用Python的星星之火K8s资源暂存服务器
、
、
、
我能够使用以下命令成功地
运行
Python作业: --deploy-mode cluster \ --conf
spark
.kubernetes.driver.
docker
.image=kubespark/
spark
-driver-py:v2.2.0-kubernetes//
浏览 0
提问于2018-02-10
得票数 2
回答已采纳
1
回答
两个
docker
镜像之间的通信
、
、
、
我有一个名为
spark
-
docker
的
spark
的
docker
镜像和卡桑德拉官方的
docker
镜像cassandra。我想从
spark
-
docker
运行
一个
spark
-submit作业,它将在cassandra中写入数据。
spark
-
docker
的Dockerfile如下: FROM bde2020/
spark
-python-template:2.4.0-hadoop2.
浏览 22
提问于2019-01-23
得票数 0
1
回答
每月在windows上安排
Docker
运行
命令
、
、
我想安排命令:"
docker
run -it --cpu 4 q2c-
spark
:latest“每月在第二个工作日的早上在windows上
运行
。我怎么发动汽车呢?windows上的命令“
docker
run -it --cpu 4 q2c-
spark
:latest” 这些可以在cmd窗口中
运行
。这是一个
spark
scala应用程序 我需要触发
docker
命令以每月
运行
一次
浏览 8
提问于2019-09-26
得票数 2
1
回答
Apache
Spark
: MesosClusterDispatcher可以在
Docker
容器中
运行
执行程序吗?
、
、
、
我正在构建一个Mesos集群来
运行
Apache
Spark
。我更喜欢为我的
Spark
executors使用
Docker
容器,我可以使用
spark
-submit的客户端模式(使用--master mesos://mesosmaster:5050和--conf
spark
.mesos.executor.
docker
.image),但是当我指定一个
docker
镜像供执行器使用时,似乎调度程序忽略了该参数,并尝试直接在Mesos沙箱中<e
浏览 7
提问于2017-08-26
得票数 1
1
回答
org.apache.hadoop.fs.azurebfs.SecureAzureBlobFileSystem Gen2上的Kubernetes
spark
-submit错误:找不到类
spark
、
、
、
、
看起来像这样:--master k8s://https://XXX \--name
spark
-pi=
spark
\--conf
spark
.kubernetes.container.image=XXX \ --conf
spark</
浏览 31
提问于2021-06-02
得票数 0
回答已采纳
3
回答
如何将齐柏林飞艇中的星火版本转换为使用
Spark
3.x
、
zeppelin: container_name: zeppelin # -
spark
-masterports:如果我访问齐柏林飞艇(在localhost:8083)并执行
spark
.version,它仍然将版本读取为2.4.5。
浏览 1
提问于2021-06-28
得票数 2
回答已采纳
2
回答
除了Livy server(livy.conf),还有其他配置要做吗?
、
、
、
、
我已经为hadoop纱线设置了
docker
,并且我正在尝试设置livy apache服务器来为作业提交进行API调用。server.AbstractConnector: Stopped ServerConnector@686449f9{HTTP/1.1,[http/1.1]}{x.x.x.x:8080} cp /tmp/livy.conf /livy/apache-livy-0.6.0-
浏览 0
提问于2019-08-17
得票数 1
1
回答
容器在一个小时后由于OOM而崩溃
、
、
、
、
我在DC/OS上使用
docker
运行
spark
。当我提交
spark
作业时,使用以下内存配置Executor 2 Gb 执行程序的数量为3个。
spark
提交工作正常,1小时后,
docker
容器(worker容器)由于OOM (退出代码137)而崩溃。但是我的
spark
日志显示内存的1Gb+是可用的。奇怪的是在容器中
运行
的同一个jar,在独立模式下正常
运行
了几乎20+个小时。这是
Spark
浏览 0
提问于2017-10-02
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Docker:Spark on Yarn
Docker运行nginx
docker运行gerrit
Docker运行sonarqube
Docker系列——4.docker中运行nginx镜像
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券