首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

输入DStream和Receiver详解

输入DStream代表了来自数据源的输入数据流。在之前的wordcount例子中,lines就是一个输入DStream(JavaReceiverInputDStream),代表了从netcat(nc)服务接收到的数据流。除了文件数据流之外,所有的输入DStream都会绑定一个Receiver对象,该对象是一个关键的组件,用来从数据源接收数据,并将其存储在Spark的内存中,以供后续处理。 Spark Streaming提供了两种内置的数据源支持; 1、基础数据源:StreamingContext API中直接提供了对这些数据源的支持,比如文件、socket、Akka Actor等。 2、高级数据源:诸如Kafka、Flume、Kinesis、Twitter等数据源,通过第三方工具类提供支持。这些数据源的使用,需要引用其依赖。 3、自定义数据源:我们可以自己定义数据源,来决定如何接受和存储数据。

02

企点升级服务营销能力,实现千人千面的个性化服务

你是否也会遇到这样的问题: 来到页面的客户有10w+,但没有客户咨询? 客服打招呼千篇一律,提不起客户的兴趣? 无法按客户需求分配给不同客服,满意度低? 企点客服3.7服务营销能力新升级,帮你轻松实现主动的个性化消息推送,并且分配给不同的员工接待,让你轻松打造个性化服务营销新体验。 那么如何实现呢?通过【高级会话引导】和【高级客户分配规则】,可以根据客户的来访时间、来访次数、地域、客户库属性等条件判断客户潜在需求进行个性化的消息推送,分配给相应客服人员。让我们来看看实现的效果吧。 | 场景一:主动弹出个性

01
领券