腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
0
回答
在
一个
主
spark
作业
中
启动
多个
spark
作业
hadoop
、
apache-spark
是否可以
在
一个
主
spark
作业
中产生
多个
spark
作业
,我的
主
spark
作业
的驱动程序是
在
纱线集群上
启动
的,它将进行一些预处理,并基于它需要在纱线集群上
启动
多个
spark
作业
。
主
spark
作业
将
启动
其他
spark<
浏览 5
提问于2016-12-21
得票数 2
1
回答
Spark
-submit main类
中
的
主
url和SparkSession
主
url,有什么区别?
apache-spark
在
使用
spark
-submit提交
作业
时,我设置了
主
URL,并为他提供了
一个
主
类,例如:但是在这个
主
类
中
,我的
spark
上下文定义了另
一个
主
url: SparkSession.builder().
浏览 1
提问于2016-08-08
得票数 8
回答已采纳
2
回答
如何使用python多处理
在
Spark
中
运行
多个
并发
作业
python-2.7
、
apache-spark
、
hadoop-yarn
、
pyspark
我已经
在
我的笔记本电脑上的纱线集群上设置了
一个
Spark
,并且使用python多处理
在
Spark
中
运行
多个
并发
作业
时遇到了问题。我运行的模式是纱-客户模式。我尝试了两种方法来实现这个目标: 设置
一个
SparkContext并创建
多个
进程来提交
作业
。此方法不起作用,程序崩溃。我想单个SparkContext不支持python
多个
进程。对于每个进程,设置
一个
Spa
浏览 2
提问于2015-11-09
得票数 2
1
回答
库伯奈斯独立的火花:火花壳工作的奴隶,而不是主人:最初的工作没有接受任何资源;
apache-spark
、
kubernetes
我正在
一个
裸金属Kubernetes集群上测试
Spark
2.3.1(独立的)。我有
一个
带有两个虚拟机的集群,它们都有8GB的内存和2个核心。我已经部署了
一个
包含
一个
主
节点和两个从节点的集群。--master
spark
://
spark
-master:7077和sc.makeRDD(List(1,2,4,4)).count作为
作业
从容器
中
启动
火花壳来执行
一个
基本的
浏览 2
提问于2018-08-29
得票数 0
回答已采纳
1
回答
与星火历史服务器正在运行的群集通信
apache-spark
我有
一个
可以工作的
Spark
集群,其中
一个
主
节点和一些工作节点运行在Kubernetes上。此群集已用于
多个
星火提交
作业
,并已开始运行。
在
主
节点上,我使用$
Spark
_HOME/sbin/start历史记录-server.sh脚本和一些信任来确定历史服务器的日志应该写在哪里,从而
启动
了
一个
星火历史服务器:
spark
.eventLog.enabled=...
浏览 2
提问于2021-09-16
得票数 1
回答已采纳
1
回答
为什么
一个
动作会产生两个工作?
performance
、
apache-spark
、
apache-spark-sql
我使用
Spark
2.1.0。val path = "/usr/lib/
spark
/examples/src/main/resources/people.txt"peopleDF.show() 我
在
浏览 3
提问于2017-06-06
得票数 2
回答已采纳
1
回答
AWS EMR火花:错误:无法从JAR加载
主
类
apache-spark
、
amazon-emr
、
amazon-data-pipeline
我正在尝试使用AWS控制台向AWS EMR集群提交
一个
spark
作业
。但它失败了,因为:
在
本地机器上,如果未按以下方式指定
主
类,则
作业
似乎非常正常: ./
spark
-submit /home/astro/
浏览 2
提问于2018-01-23
得票数 6
回答已采纳
1
回答
气流-如何使用非退出命令运行KubernetesPodOperator
apache-spark
、
kubernetes
、
openshift
、
airflow
、
kubernetes-pod
我正在尝试设置
一个
DAG,它将在第
一个
任务
中
创建
一个
星火集群,
在
临时任务
中
向集群提交
Spark
应用程序,并在最后
一个
任务中最终删除
spark
集群。我现在正在尝试的方法是使用KubernetesPodOperators来创建
Spark
和Worker。问题是,它们运行的是
一个
从未退出的星火守护进程。事实上,调用豆荚的命令永远不会退出,这意味着这些任务在运行阶段被困在气流
中
。所以,我想知
浏览 2
提问于2020-01-15
得票数 1
回答已采纳
1
回答
如何在
Spark
中
并行读写
多个
表?
scala
、
parallel-processing
、
apache-spark
、
apache-spark-sql
在
我的
Spark
应用程序
中
,我尝试从RDBMS读取
多个
表,执行一些数据处理,然后将
多个
表写入另
一个
RDBMS,如下所示(
在
Scala
中
):myDF3.write.mode("append").jdbc(myurl2, outtable3, new java.util.Properties) 我知道从
一个
表<e
浏览 0
提问于2015-08-25
得票数 8
2
回答
如何在Windows 7上安装
spark
eclipse
、
scala
、
apache-spark
我
在
实习岗位上,我对系统
中
的下载/安装有
一个
有限的访问权限。我的问题是如何在Windows7上安装Apache
spark
(我总是通过Hortonworks
在
VM中使用它,但在我的实习期间,我没有安装VM或Hortonworks的权利)。我
在
论坛上搜索了更多,我认为我可以使用Eclipse,导入
spark
并安装scala IDE (scala是我对
Spark
的首选语言),但我无法找到解决方案。 你能给我一些建议或想法吗?
浏览 3
提问于2017-03-17
得票数 0
2
回答
有没有使用API提交
spark
作业
的方法
apache-spark
、
pyspark
、
spark-streaming
、
distributed-computing
、
spark-submit
我可以使用控制台
在
linux服务器上提交
spark
作业
。但是
在
linux服务器上有没有什么API或者框架可以用来提交
spark
作业
呢?
浏览 0
提问于2017-01-04
得票数 0
2
回答
集群
中
MapReduce和
Spark
作业
的资源分配
hadoop
、
apache-spark
、
mapreduce
、
hadoop-yarn
我无法理解为Map Reduce和
Spark
作业
分配资源的内部机制。
在
同
一个
集群
中
,我们可以运行Map Reduce和
Spark
作业
,但是对于运行map reduce
作业
,内部资源管理器将为
作业
分配可用的资源,如数据节点和任务跟踪器。当涉及到
Spark
上下文时,它需要工作节点和执行器(内部为JVM)来计算程序。 这是否意味着Map Reduce和
Spark
作业
将有不同的节点?如果不
浏览 1
提问于2017-06-10
得票数 1
1
回答
无法将查询传递到Yarn群集模式下的java
spark
程序
java
、
apache-spark
、
talend
Talend 7.1、MapR6.0分发版、
Spark
2.2、查询可以有复杂的配置单元连接&有时用户甚至可以使用特殊字符反引号、!、tilda、@。如果子
spark
作业
在
Spark
浏览 1
提问于2021-03-05
得票数 0
1
回答
在
Spark
程序
中
访问Oozie配置
scala
、
oozie
、
oozie-workflow
我
在
.bash_profile中保存了
一个
环境变量。我正在尝试使用Scala
中
的sys.env()方法通过
Spark
程序访问它。当我没有Oozie调度时,我能够正确地访问
Spark
中
的环境变量。然而,当我尝试使用Oozie调度我的程序时,程序抛出
一个
错误,它无法读取环境变量。' /> <
spark</e
浏览 1
提问于2020-01-14
得票数 0
2
回答
EC2
spark
集群
中
的
主
URL是什么
amazon-ec2
、
apache-spark
我使用
spark
-ec2脚本
启动
了
一个
spark
集群。(编辑:登录到
主
节点后),我可以
在
主
节点本地运行
spark
作业
,如下所示:但是我似乎不能在集群模式下运行
作业
/
spark
/bin/
spark
-submit --class m
浏览 1
提问于2015-07-15
得票数 1
1
回答
Spark
驱动程序未分配任何工作进程
apache-spark
、
sparkcore
我正在使用
spark
version 2.4.7-bin-hadoop.2.7java 8 具有1个
主
节点和2个工作节点的
spark
群集正在作为独立群集
spark
配置运行
spark
.master
spark
.driver.memory 500M
主
启动
脚本为${
SPARK
_HOME}/sbin/start-master.sh 从
启动
脚本为${<
浏览 31
提问于2021-04-17
得票数 0
4
回答
在
IntelliJ Idea
中
运行Apache示例应用程序
scala
、
hadoop
、
apache-spark
我试图
在
Netbeans
中
运行SparkPi.scala示例程序。不幸的是,我对星火还很陌生,没有能够成功地执行它。import org.apache.
spark
.SparkConf Using
Spark
's
浏览 4
提问于2016-03-25
得票数 3
回答已采纳
1
回答
根据卡夫卡的信息发送和
启动
火花工作
apache-spark
、
spark-streaming
、
spark-streaming-kafka
"type": "job_type_1" "://some_file"]
浏览 0
提问于2019-07-29
得票数 3
1
回答
带火花连接器的MongoDB
mongodb
、
apache-spark
、
sharding
、
in-memory-database
如果我有
一个
mongodb的副本集,那么
主
服务器正在接收所有的写/读操作,并将它们写入服务器。辅助服务器正在从操作日志
中
读取操作并复制它们。现在我想用
spark
- mongodb -connector来分析mongodb副本集中的数据。我可以在所有三个节点上安装
spark
集群,并在内存
中
对其运行分析。我知道
spark
集群有
一个
主
节点,在那里我必须提交
spark
作业
以进行分析,或
sp
浏览 15
提问于2017-01-25
得票数 1
2
回答
这是可能配置梁便携式流道与火花配置?
apache-spark
、
kubernetes
、
apache-beam
、
tfx
更准确地说,可以
在
便携式运行程序
中
配置
spark
.driver.host吗?目前,我们已经
在
Kubernetes集群
中
实现了气流,为了使用TensorFlow扩展,我们需要使用Apache。设置
在
beam文档之后,
作业
serer
在
与气流相同的吊舱
中
实现,以使用这两个容器之间的本地网络。正如我们所看到的,执行器是不断退出的,而据我所知,这个问题是由执行器和驱动程序(本例
中
的
作业
服务器)之
浏览 5
提问于2021-02-22
得票数 3
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券