前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >sparkstreaming(1)——实战

sparkstreaming(1)——实战

作者头像
gzq大数据
发布2020-11-11 17:05:51
3070
发布2020-11-11 17:05:51
举报
文章被收录于专栏:大数据那些事大数据那些事

在spark的一开篇(可以见我的spark(1)这篇博客),我们就谈到了sparkstreaming可以快速的处理数据流。 我们可以从sparkstreaming处理新的流式数据再传给sparksql进行计算,或者spark生态中的MLlib去进行数据的实时更新进行机器学习等。 类比于spark-core和sparksql,写sparkstreaming代码也要创建自己的上下文Streaming Context(通过spark context来获取streaming context,并且还要指定一个时间间隔),通过Streaming Context获取到的数据可以称为DStreams模型,如果一个Streaming Context已经开启,那么就不允许新的DStream建立,并且当Streaming Context停止以后,就不允许重新启动,DStreams模型是由一串连续的RDD构成,每个RDD都有前面定义的时间间隔内的数据,所以操作DStreams里的数据其实也是操作RDD。 处理DSream的逻辑一定要在开启Streaming Context之前写完,一旦开启就不能添加新的逻辑方式。

我们在python中写好如下代码:

在这里插入图片描述
在这里插入图片描述

在linux下开启10008端口服务

在这里插入图片描述
在这里插入图片描述

随便输入一些字符串观察pycharm中的结果:

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

可以见到,数据流进来并被spark streaming处理

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020-10-17 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
数据库
云数据库为企业提供了完善的关系型数据库、非关系型数据库、分析型数据库和数据库生态工具。您可以通过产品选择和组合搭建,轻松实现高可靠、高可用性、高性能等数据库需求。云数据库服务也可大幅减少您的运维工作量,更专注于业务发展,让企业一站式享受数据上云及分布式架构的技术红利!
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档