如:
先发了一个spark,得到spark,1
然后不管隔多久再发一个spark,得到spark,2
也就是说要对数据的历史状态进行维护!...代码实现
package cn.itcast.streaming
import org.apache.spark.rdd.RDD
import org.apache.spark.streaming.dstream...* 如:
* 先发了一个spark,得到spark,1
* 然后不管隔多久再发一个spark,得到spark,2
* 也就是说要对数据的历史状态进行维护!
...,那么key为spark,参数1为:Seq[1,1]
//参数2:Option[Int]:上一次该key的历史值!...1.6提供新的状态更新函数【mapWithState】,mapWithState函数也会统计全局的key的状态,
//但是如果没有数据输入,便不会返回之前的key的状态,只是关心那些已经发生的变化的