我正在尝试写我的第一个推荐模型(Spark2.0.2),我想知道是否可能,在最初的火车之后,当模型详细说明我的所有rdd时,只为未来的火车使用一个增量。
让我通过一个例子来解释:
问题是,是否有可能以某种方式执行步骤4?
发布于 2016-11-25 10:07:26
我的理解是,只有机器学习算法才有可能支持像StreamingKMeans或StreamingLogisticRegressionWithSGD这样的流培训。
引用它们的文档(见上面的活动引用):
(StreamingLogisticRegressionWithSGD)在流数据上训练或预测一个logistic回归模型。培训使用随机梯度下降来根据来自DStream的每一批新数据更新模型(模型方程见LogisticRegressionWithSGD )。
StreamingKMeans提供了配置流k均值分析、对流模型进行培训以及使用该模型对流数据进行预测的方法。
让我担心的是,算法属于org.apache.spark.mllib.clustering包,现在已经不再推荐了(因为它是基于RDD的,而不是基于DataFrame的)。我不知道他们是否有JIRAs用DataFrame改造他们。
https://stackoverflow.com/questions/40801931
复制相似问题