腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(756)
视频
沙龙
1
回答
Spark
Streaming
-
调用
REST
API
与
为
Spark
Streaming
原生
构建
功能
我们有一个管理时间序列数据的特定
功能
。该
功能
已经作为
REST
API
提供,并在Cloudfoundry上运行。我们希望提供对使用
Spark
Streaming
和kafka摄取时间序列数据的支持,以便解决方案更具可扩展性和健壮性。从
spark
streaming
内部
调用
REST
API
在
spark
中
原生
构建
功能
有什么缺点?
浏览 8
提问于2017-02-16
得票数 0
1
回答
与
Scala2.12一起使用的Twitter
API
、
、
、
我正在用Scala2.12(用SBT
构建
)
构建
一个
Spark
(3.0.0)流应用程序。我如何从Twitter中获得tweet,因为所有的库都是针对Scala <= 2.11的。编辑:我在尝试用libs
构建
时获得的示例输出:[error]import org.apache.
spark
.
streaming
.tw
浏览 2
提问于2020-08-26
得票数 2
1
回答
java.lang.NoSuchMethodError: org.apache.
spark
.storage.BlockManager
、
、
、
;)Lscala/Option; at org.apache.
spark
.
streaming
.kinesis.KinesisBackedBlockRDD.getBl
浏览 2
提问于2017-04-03
得票数 0
回答已采纳
1
回答
为什么我的星火应用程序不能运行"NoSuchMethodException: org.apache.
spark
.util.SystemClock"?
、
、
我收到以下错误: new Duration(2000), System.getenv("
SPARK
_HOME
浏览 3
提问于2017-06-28
得票数 0
回答已采纳
1
回答
为什么从SparkContext应用程序连接到
Spark
Standalone时会抛出“无法在已停止的Java上
调用
方法”?
、
我已经下载了
为
Hadoop2.6和更高版本预先
构建
的Apache
Spark
1.4.1。我有两台Ubuntu 14.04机器。其中一台我设置
为
Spark
主机,只有一台从机,第二台机器运行一台
Spark
从机。当我执行./sbin/start-all.sh命令时,主设备和从设备都成功启动。我已经创建了一个Java应用程序,并尝试将其配置
为
在需要时运行
Spark
作业。我在pom.xml文件中添加了
spark
依赖项。&l
浏览 0
提问于2015-11-09
得票数 5
回答已采纳
1
回答
实例化AbstractMethodError异常时JavaStreamingContext异常
、
-- https://mvnrepository.com/artifact/org.apache.
spark
/
spark
-
streaming
--> <groupId>org.apache.
spark
</groupId> <artifactId>
spark
-
streaming
_2.11</art
浏览 0
提问于2019-01-11
得票数 1
回答已采纳
1
回答
StreamingQueryException:‘描述Streams\n===流查询时出错
、
、
Query ===\nIdentifier: [id = 60exxxxxxxxxxxxx
spark
-tags_2.11-2.4.0.jar,
spark
-
streaming
_2.11-2.4.0.jar,amazon-kinesis-client#######
spark
-tags_2.11-2.4.3
浏览 0
提问于2020-09-08
得票数 0
1
回答
如何将Livy curl
调用
转换为Livy
Rest
API
调用
、
、
我已经创建了一个fat jar并将其上传到hdfs,我只是从Livy
调用
它的main方法。" : "yarn","
spark
.executor.extraClassPath" : "/etc/hbase/conf/","
spark
.executor.extraJavaOptions" :/Livy/SampleFile.json -H "Content-Type: applica
浏览 22
提问于2019-10-02
得票数 0
1
回答
Dataproc :通过
REST
API
提交
Spark
作业
、
对于处理,我们目前使用的是google cloud dataproc &
spark
-
streaming
。我想使用
REST
API
提交一个
Spark
作业,但是当我使用
api
-key
调用
URI时,我得到了以下错误!caller does not have permission", }URI :- * 我从google console>
浏览 2
提问于2016-06-13
得票数 0
1
回答
Apache从2.29.0升级到2.32.0
然而,本周我们不能再
构建
了,因为这个已经从Redhat回购中删除了。我将管道升级
为
BeamVersion2.32.0。我们的管道使用SparkRunner,
Spark
的版本是: 3.2.0。(TranslationUtils.java:271)at o
浏览 4
提问于2022-07-12
得票数 0
1
回答
对火花过程进行计时,如果太慢的话就杀死它
、
、
、
我正在
构建
一个使用Scala/SQL启动用户
构建
查询(业务规则)的过程。其中一个要求是,如果SQL执行的速度比预期的慢(每条规则都有一个预期的性能(以秒
为
单位)属性),我需要为将来的引用将它们标记为这样,并终止长时间运行(缓慢)的进程/作业, 如果线程没有在预期的时间内完成,则终止作业并将其报告
为
一个缓慢的进程。
浏览 1
提问于2017-05-01
得票数 2
2
回答
在星火上部署运行的word计数
、
我正在尝试部署
与
Spark
示例提供的相同文件,但我希望
构建
并部署此特定示例,作为独立应用程序。;import org.apache.
spark
.
api
.java.StorageLevels;import org.apache.<em
浏览 1
提问于2015-07-28
得票数 1
回答已采纳
2
回答
如何使用
Spark
上下文?
、
、
、
、
我将值赋值
为
sc = pyspark.SparkContext()。它在jupyter笔记本上运行了很长时间,没有响应,因为出现了星号,并且没有显示任何错误。
浏览 1
提问于2019-05-29
得票数 0
2
回答
使用
Spark
-
Spark
JobServer进行实时基于请求的推荐?
、
、
我们正在试图找到一种加载
Spark
(2.x) ML训练模型的方法,这样我们就可以根据请求(通过
REST
接口)查询它并获得预测,例如 有一些现成的库可以将模型加载到
Spark
中(假设它是在使用MLWritable训练后存储在某个地方),然后将其用于预测,但由于SparkContext的初始化,将其包装在作业中并在每次请求/
调用
时运行它似乎有些过分。然而,使用
Spark
的好处是我们可以保存我们的管道模型并执行相同的
功能
转换,而不必在SparkContext外部实现它。经过一些挖掘
浏览 1
提问于2017-02-14
得票数 5
2
回答
如何
调用
从
Spark
作业
调用
的web服务?
、
、
我想
调用
一个web服务来获取
Spark
Structured
Streaming
中的一些数据。有可能吗?多么?
浏览 0
提问于2019-12-07
得票数 5
1
回答
在hadoop 3.2.0上
构建
spark
2.4.3失败
、
、
我正在
构建
spark
2.4.3,使其
与
最新的hadoop 3.2.0兼容。生成命令
为
./build/mvn -Pyarn -Phadoop-3.2 -Dhadoop.version=3.2.0 -DskipTests clean package[INFO]
Spark
ProjectSUCCESS [ 1.558 s] [INFO]
Spark
Project Shuffle
Strea
浏览 41
提问于2019-07-31
得票数 3
回答已采纳
1
回答
在
Spark
streaming
微批处理结束时,内存持久化RDD是否是不持久的?
、
、
我使用
Spark
2.0.2(在DSE / DataStaX企业版5.1中)来运行一些流媒体应用。我的
Spark
streaming
应用程序
为
每个微批处理
调用
了一些RDD.persist(),而RDD.unpersist()从未被
调用
过(到目前为止,我们依靠缓存空间的LRU
功能
来解除持久化)。我想我会在
Spark
UI的"Storage“选项卡中看到持久化RDD的列表增长了很多。 然而,在
Spark
UI的"
浏览 0
提问于2019-07-05
得票数 0
4
回答
火花平行化?(无法找到名为“id”的创建者属性)
、
在
调用
时,是什么导致Apache
Spark
1.4.0中的序列化错误:引发此异常:Could not find creator property with name 'id' (in class org.apache.
spark
.rdd.RDDOperationScope) 从
浏览 7
提问于2015-06-25
得票数 19
回答已采纳
1
回答
用于DStreams的火花流检查点
、
、
在星火流中,设置StreamingContext以将检查点设置
为
可靠的数据存储(S3、HDFS、.)是可能的(如果要使用有状态操作,也是强制性的)。(和): 另一方面,可以通过在每个DataStream上
调用
checkpoint(timeInterval)来设置它们的沿袭检查点间隔。实际上,建议将沿袭检查点间隔设置
为
DataStream滑动间隔的
浏览 4
提问于2015-12-31
得票数 13
回答已采纳
2
回答
在火花流中
调用
updateStateByKey时出现异常
、
、
;import org.apache.
spark
.
api
.java.function.Function;import org.apache.
spark
.
api
.java.function.FlatMapFunction; import org.apache.<
浏览 0
提问于2016-06-01
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券