腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
Apache
Spark
捕获
更改
数据
、
使用
Apache
Spark
解决问题的最佳方法是什么?我的
数据
集如下- ID, DATE, TIME, VALUE001,2019-01-01, 0020, 150 001,2019-01-
浏览 5
提问于2019-09-29
得票数 1
回答已采纳
1
回答
Spark
-如何通过'SparkLauncher‘识别失败的作业
我正在
使用
Spark
2.0,有时我的工作会因为输入问题而失败。例如,我正在根据日期从S3文件夹读取CSV文件,如果没有当前日期的
数据
,我的作业就没有什么要处理的,所以它抛出一个异常,如下所示。at org.
apache
.
spark
.deploy.SparkSubmit$.org$
apache
$
spark
$deploy$SparkSubmit$$runMain(SparkSubmit.scala:729) at org.
apache
.
s
浏览 146
提问于2016-09-03
得票数 8
回答已采纳
1
回答
如何保证debezium生成的topic事件顺序,存储在kafka中并发送给
spark
?
、
、
、
我在一个变更
数据
捕获
项目中工作。我有一个mysql
数据
库。我
使用
debezium
捕获
所有
更改
并将其发送给kafka。后来,我读取了
Spark
的所有信息,并
使用
jdbc将其发送到
Apache
Phoenix。 我正在
使用
debezium和一个重路由选项,它只将所有表的
更改
发送到一个kafka主题。有了这个配置,我确信我可以按顺序阅读
spark
中独特的kafka主题。但我的问题是:如果
浏览 96
提问于2019-05-03
得票数 0
1
回答
如何利用
Apache
捕获
数据
包并分析SDN网络
、
、
我需要
使用
Apache
捕获
网络中的
数据
包,然后分析它们。现在,我
使用
Wireshark来
捕获
数据
包,并在
Spark
中对它们进行分析。但是,我认为
Spark
本身具有
捕获
流
数据
包的能力。
浏览 3
提问于2017-04-30
得票数 0
回答已采纳
1
回答
连接到本地主机时出错:8060: java.net.ConnectException:连接被拒绝
、
、
、
我是
Apache
Spark
的新手。我
使用
以下命令: mvn -e -Dmaven.tomcat.port=8080 tomcat:run exec:java -Dexec.mainClass例如,另一个系统将我的UDP
数据
作为1;2;3;4.发送到端口8060。我想根据";“来解析它,
浏览 0
提问于2015-01-16
得票数 0
2
回答
用
数据
库从Azure
数据
湖读取avro
数据
--由Azure EventHubs
捕获
生成的EventHubs失败
、
、
、
、
我正在尝试从Azure
数据
湖Gen1中读取avro
数据
,该
数据
是从Azure EventHubs生成的,Azure事件集线器
捕获
是在Azure
数据
库中启用的:rawData =
spark
.read.format("avro").load(inputdata)rawData.count()org.
apa
浏览 3
提问于2019-12-01
得票数 1
回答已采纳
1
回答
无法将
数据
帧转换为标注点
、
、
我的程序
使用
Spark
.ML,我对
数据
帧
使用
逻辑回归。然而,我也想
使用
LogisticRegressionWithLBFGS,所以我想把我的
数据
帧转换成LabeledPoint。new LogisticRegressionWithLBFGS().run(dff3.rdd.map(row=>LabeledPoint(row.getAs[Double]("label"),org.
apache
.
spark
.mllib.linalg.
浏览 6
提问于2017-08-25
得票数 0
回答已采纳
1
回答
每个键的星火聚合事件集,包括它们的
更改
时间戳
、
、
、
、
关于下列
数据
的
数据
:|user| dt| time_value|item|import org.
apache
.
spark
.sql.DataFrame import org.
apache
.
spark
.sql.functions.colimport org.
apache
.
spar
浏览 2
提问于2020-03-25
得票数 0
回答已采纳
1
回答
为什么elasticsearch 5.5.0在提交给纱线集群时AbstractMethodError失败了?
、
、
、
Lorg/
apache
/
spark
/sql/SaveMode;Lscala/collection/immutable/Map;Lorg/
apache
/
spark
/sql/Dataset;)Lorg/
apache
(Lorg/
apache
/
spark
/sql/SQLContext;Lorg/
apac
浏览 1
提问于2017-08-04
得票数 1
1
回答
来自线程[default-akka.actor.default-dispatcher-5]关闭ActorSystem的致命错误
、
、
在我的应用程序中,我从cassandra检索
数据
,并
使用
akka喷雾提供rest。当我在IDE中运行时,它运行得很好。但是,当我在本地运行
Spark
submit时,我的机器上出现了如下所示的错误 错误默认-akka.actor.default-dispatcher-5来自线程默认的未
捕获
的致命错误-akka.actor.default-5关闭了org.
apache
.
spark
.sql.cassandra.CassandraSQLContext$$anon$1.DDLStrategy(
浏览 3
提问于2016-04-05
得票数 0
1
回答
如何与CSV文件中的
数据
集一起
使用
决策树?
、
、
、
、
我想像下面的代码一样
使用
Spark
的org.
apache
.
spark
.mllib.tree.DecisionTree,但是编译失败。import org.
apache
.
spark
.ml.Pipeline import org.
apache
.
spark
.ml.classification.DecisionTreeClassifierimport org.
apache
.
spark
.ml.classification.De
浏览 4
提问于2017-05-22
得票数 0
1
回答
使用
Spark
或Flink将基于Kafka事件的
数据
转换为关系星型模式
、
、
、
、
我正在为一个
使用
MySQL作为其
数据
存储的应用程序构建分析功能。我们有一个基于微服务的架构,也
使用
Kafka。我们的用例并不真正需要“实时”分析,但这可能会在以后添加。对于卷和用例,我不认为需要基于Hadoop的系统,但Kafka Connect,
Spark
和Flink是可能的。可以编写代码来检查每个事件,然后更新事实表,但是考虑到我可能会在事实表中的
数据
桶上
使用
15到30分钟的窗口,有没有办法
使用
Flink、
Spark
或Kafka流来实现这一点?我需
浏览 0
提问于2018-03-23
得票数 3
1
回答
在
Spark
2.4中从
spark
-shell写入AVRO
、
、
、
Spark
2.4.0 on Java 1.8.0_161 (Scala2.11.12) 运行命令:
spark
-shell --jars=
spark
-avro_2.11-2.4.0.jar 目前正在
使用
小的avro文件处理一些POC,我希望能够读入(单个) AVRO文件,进行
更改
,然后将其写回。阅读很好:val myAv =
spark
.read.format("avro").load("myAvFile.avro") 然而,当我尝试写回(甚至在进
浏览 108
提问于2019-05-01
得票数 0
2
回答
使用
java将oracle
数据
库连接到
apache
spark
时出错
、
、
、
、
下面是我用来从
apache
spark
java程序连接到oracle本地
数据
库的代码,但我得到了下面的错误。Exception in thread "main" java.lang.NoClassDefFoundError: org/
apache
/
spark
/Logging <versio
浏览 1
提问于2017-01-12
得票数 1
2
回答
为什么火花提交失败与"AnalysisException:卡夫卡不是一个有效的星火SQL
数据
源“?
、
、
、
我
使用
星火2.1.0和Kafka 0.10.2.1。package com.example; import org.
apache
.
spark
.api.java.JavaSparkContext; impo
浏览 8
提问于2017-06-29
得票数 1
回答已采纳
1
回答
Spark
数据
集显示:无法多次
捕获
输出
、
、
、
我需要一个方法来将我的
数据
集显示给我的log4j记录器。我
使用
的是:void org.
apache
.
spark
.sql.Dataset.show(int numRows, boolean truncate),它只是简单地登录到stdOut。为了
捕获
stdOut,我做了以下操作(灵感可以在stackoverflow上的其他地方找到): void myMethod(Dataset<Row> data){ // Save the oldoriginalPrintStrea
浏览 11
提问于2021-01-26
得票数 1
2
回答
无法
使用
spark
读取kafka主题
数据
、
、
、
在我创建的名为"sampleTopic"的主题中,有如下所示的
数据
其中第一个参数是username,第二个参数是用户经常侦听的song name。现在,我已经
使用
上面提到的主题名称启动了zookeeper、Kafka server和producer。我已经
使用
CMD输入了该主题的上述
数据
。现在,我想阅读
spark
中的主题,执行一些聚合,并将其写回流中。下面是我的代码:import org.
apach
浏览 3
提问于2020-05-30
得票数 0
回答已采纳
1
回答
Py4JJavaError (
spark
1.6.x) ImportError:无法导入名称Pyspark
、
、
我
使用
的是
Apache
-
Spark
(pyspark),一切运行正常。现在,我正在尝试加载一个可能存在也可能不存在的
数据
。因此,我正在尝试
捕获
Py4JJavaError,并尝试导入它,如下所示:ImportError: cannotimport name Py4JJavaError 当我解压缩这个文件时: /usr/local/Cellar/
apache
-<e
浏览 62
提问于2016-07-21
得票数 2
回答已采纳
1
回答
如何通过scala代码获取Hadoop-
spark
作业的跟踪URL或
捕获
spark
-submit输出
、
现在,我想像
捕获
一样
捕获
跟踪URL,并在我的其他scala项目中
使用
它。我该怎么做呢?我尝试重定向
spark
-submit输出,但它似乎不起作用,就像 ./bin/
spark
-submit --class org.
apache
.
spark
.examples.mllib.JavaKMeans --master yarn-cluster --num-executors另外,我尝试
使用
scala.sys.process.ProcessIO
浏览 1
提问于2015-11-05
得票数 2
1
回答
无法将XMLTYPE
数据
类型从oracle加载到
Spark
中
、
、
、
我有6700万条Oracle记录,其中一些列是XMLType作为
数据
类型。 我的计划是将所有这些记录从Oracle加载到
Apache
HBase,我
使用
Spark
SQL将加载加载到
Apache
HBase中。
浏览 2
提问于2017-04-08
得票数 3
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用 Apache Spark 构建商品推荐引擎
什么是 Apache Spark?大数据分析平台详解
Apache Spark 2.4 内置的 Avro 数据源实战
在云中使用Apache Hadoop,Spark和Hive的6个理由
大数据Hadoop之——Apache Hudi 数据湖实战操作(Spark,Flink与Hudi整合)
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券