腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
spark
streaming
mapwithstate
与
spark
的
混淆
wrappedState) newStateMap.remove(key)} deltaMap.update(key, newInfo)}我
的
问题是: 1:在当前批处理超时中将执行
的
键,因为在调用检查点时,"wrappedState.exi
浏览 1
提问于2017-08-23
得票数 0
回答已采纳
1
回答
如何集中操作
MapWithState
函数
、
、
我有一份
spark
流媒体
的
工作,代码如下:[INFO] Compiling 9 source files to /Users/spare/project[KeyType,org.apache.
spark
.api.java.Optional
浏览 0
提问于2018-07-01
得票数 0
1
回答
如何监控
spark
的
“状态”大小?
、
、
、
、
如何监控
spark
streaming
应用
的
状态大小?驱动程序GUI中
的
存储选项卡仅显示
Mapwithstate
State操作
的
结果(Mapwithstaterdd,而不是实际
的
Spark
State RDD!从Grafana中,我们观察到
spark
streaming
应用程序
的
总内存使用量随着每批传入
的
流处理而“增长”。Grafana中显示
的
工作节点(整个集群
浏览 2
提问于2016-09-30
得票数 4
1
回答
如何使用scalamock lib模拟org.apache.
spark
.
streaming
.State?
、
、
我为
Spark
.
streaming
.
mapWithState
的
“更新函数”写了一个单元测试,我需要Mock
的
"org.apache.
spark
.
streaming
.State“参数,但它是一个密封
的
类,我应该如何测试我
的
功能?
浏览 0
提问于2019-01-07
得票数 0
1
回答
类型-参数化DStream
、
、
、
、
当我尝试lazy val qwe = mStream.
mapWithState
(stateSpec) on myDStream: DStream[(A, B)] (类参数)时,我得到: lazy val qwe = mStream.
mapWithState
浏览 2
提问于2017-01-05
得票数 2
回答已采纳
1
回答
在
spark
streaming
应用程序中,
mapWithState
在哪里执行?
、
在
spark
streaming
应用程序中,
mapWithState
在哪里执行?它是在驱动程序上还是在执行器上?
浏览 1
提问于2017-01-26
得票数 0
1
回答
Spark
kafka
streaming
-如何确定批次结束
(kafka直播流)该topic中
的
数据每隔5分钟就会从其他来源到达。现在我需要处理每隔5分钟到达
的
数据,并将其转换为
Spark
DataFrame。我知道我可以将批处理间隔(以JavaStreamingContext表示)指定为某个数字,但即使到那时,我也不能确定源将数据推送到主题需要多长时间
浏览 0
提问于2017-06-09
得票数 0
1
回答
通用状态管理
、
、
、
、
以下是我现在所处
的
位置: stream: DStream[(String, String)],) { myStream
浏览 1
提问于2017-01-06
得票数 1
回答已采纳
1
回答
火花流在窗口上维护状态
、
、
对于
spark
streaming
,有没有方法可以让我们只维护当前窗口
的
状态?我知道updateStateByKey是工作
的
,但它会永远保持这种状态,除非我们将其清除。是否可以存储和重置每个窗口
的
状态?对象%1要么是调用,要么是响应。直到我们看到调用和响应,对象2才被认为是完整
的
。 但是,由于对象
的
响应可能在单独
浏览 0
提问于2018-03-01
得票数 0
1
回答
org.apache.
spark
.util.SerializableConfiguration提供java.lang.ClassCastException:在从检查点恢复时不能强制转换java.lang.ClassCastException
、
、
、
、
我正面临一个火花流工作
的
问题,我试图使用广播,
mapWithState
和检查点在火花。以下为用法: 我还需要将广播连接对象传递到
mapWithState
,以便从外
浏览 5
提问于2017-08-01
得票数 3
1
回答
如何在星火流中建立查找地图?
、
在火花流应用程序中维护应用程序状态
的
最佳方法是什么? 使用" union“操作附加到查找RDD,并在每个联合之后保存它。我
的
问题是,从表现
的
角度看,哪一个更好?还有更好
的
方法吗?
浏览 5
提问于2015-10-12
得票数 4
2
回答
电火花卡夫卡在调用
mapWithState
时不断提醒类型错配
、
、
我试图用Kafka实现wordCount,在使用
mapWithState
函数时得到了错误
的
“类型错配”。这是我
的
代码: val sparkConf = new SparkConf-> "localhost:9092", "zookeeper.connect" -> "localhost:2181"
浏览 0
提问于2018-10-02
得票数 1
回答已采纳
1
回答
NotSerializableException:已启用DStream检查点,但DStreams及其函数是不可序列化
的
、
、
eventhubsEvent.partitionId), eventhubsEvent.eventOffset)) - object (class org.apache.
spark</e
浏览 6
提问于2016-08-25
得票数 2
1
回答
火花流作业不可恢复
、
我使用
的
是火花流作业,它使用带有初始RDD
的
mapWithState
。当重新启动应用程序并从检查点恢复时,它将失败,错误如下: RDD转换和操作不是由驱动程序调用
的
,而是在其他转换中调用
的
;例如,rdd1.map(x => rdd2.values.count() * x)无效,因为值转换和计数操作不能在当火花流作业从检查点恢复时,如果在DStream操作中使用对流作业未定义
的
RDD
的
引用
浏览 12
提问于2017-06-23
得票数 12
1
回答
Spark
Streaming
动态分配ExecutorAllocationManager
、
我们有一个支持
spark
.
streaming
.dynamicAllocation.enabled=true
的
带有
mapWithState
的
spark
2.1流媒体应用程序。., new HashPartitioner(partitions)) .map(s => sessionAnalysis(s)).foreachRDD( rdd => rdd.toDF().....save(output)
浏览 0
提问于2017-03-14
得票数 2
1
回答
如何在
Spark
Streaming
中累积数据帧?
、
、
、
我知道
Spark
Streaming
会产生批量
的
RDDs,但我想积累一个大
的
Dataframe,随着每一批
的
更新(通过将新
的
dataframe附加到末尾)。 有没有办法像这样访问所有的历史流数据?我见过
mapWithState
(),但还没有看到它专门积累数据帧。
浏览 12
提问于2018-08-01
得票数 1
2
回答
PairDStreamFunctions.
mapWithState
在设置超时时失败java.util.NoSuchElementException: None.get
嗨,我正在使用带超时功能
的
mapwithstate
api,当超时间隔到达理想数据时,我得到了下面提到
的
异常。我使用
的
示例位于这个位置,JavaPairDStream<String, Integer> wordsDstream = words.mapToPair( new P
浏览 4
提问于2016-02-25
得票数 1
回答已采纳
1
回答
运行时出错,sbt编译传递。
、
、
、
" %% "
spark
-core" % "1.6.0"..[success] Total time: 98 s, com
浏览 0
提问于2016-01-29
得票数 1
1
回答
没有删除
的
Spark
streaming
mapWithState
超时
想象一下这样一个用例:每个用户都有事件流进来,但只有第一周
的
事件是感兴趣
的
。在这段时间内,使用
mapWithState
实现了有状态逻辑。在该时间段之后,应忽略用户传入
的
事件。由于用户
的
状态需要记忆,因此在用户
的
周周期之后将其更改为简单
的
已见标记是有意义
的
。 如果用户在第一次事件后一周或更晚发生任何事件,则很容易将状态更改为已见标记。据我所知,添加超时(到用户
的
状态)没有帮助,因为您不允许更改超时状态
的
状态(这是有意义
浏览 0
提问于2017-06-29
得票数 5
1
回答
为什么在火花流中使用
mapWithState
/检查点时,我会在处理时刻表中看到周期性脉冲?
、
、
、
我
的
代码包括一个
mapWithState
函数,可以正确运行。当我检查
spark
上
的
流统计时,我在处理时间图中发现了一些周期脉冲。我认为这可能是由于使用检查点造成
的
。和完成
的
分批表:我发现一些1秒
的
成本成批是周期性
的
。然后,我进入一个1秒
的
时间成本批处理和一个亚秒时间成本
的
批处理,并发现1秒
的
时间成本批有多一个工作比另一个。这是我
的
代码: import kafka.ser
浏览 1
提问于2016-12-05
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
了解Spark Streaming
Spark Streaming与Kafka 整合的改进
走进大数据 Spark-Spark streaming
Spark及Spark Streaming 核心原理及实践
Kafka 遇上 Spark Streaming
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券