前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >系统通知,居然有人使用拉取?

系统通知,居然有人使用拉取?

作者头像
架构师之路
发布2018-07-27 17:10:30
8060
发布2018-07-27 17:10:30
举报
文章被收录于专栏:架构师之路架构师之路

任何脱离业务场景的架构设计都是耍流氓。

广义系统通知,有1对1的通知,以及一对多的通知,有相对实时的业务通知,以及能够容忍一定延时的系统通知。结合具体的场景来看下,这样的一些系统通知,究竟是推还是拉?

一、系统对1的通知

典型业务,计数类通知:

  • 有10个美女添加了你为好友
  • 有8个好友私信了你

很多业务经常有这类计数通知,通知结果只针对你,这类通知是推送,还是拉取的呢?常见的有这样一些实践:

如果业务需求对计数需求需要实时展现,例如微博的加好友计数,假如希望实现不刷新网页,计数就实时变化

  • 登录微博时,会有一个计数的拉取,对网页端的计数进行初始化

int getCountByType(int countType)

  • 在浏览微博的过程中,一旦有人加你为好友,服务端对网页端进行实时推送,告之增加了1个(或者N个)好友

int addCountByType(int countType, int diff)

这里的思路是,一开始得到初始值,后续推送增量值,由网页端计算最终计数并呈现最终结果。需要注意,针对不同业务,计数变化的差值可增可减。

上述方案的坏处是,一旦有消息丢失,网页端的计数会一直不一致,直至再次登录重新初始化计数。这个计算计数可以优化为在服务器直接计算并通知网页端最终的结果,网页端只负责呈现即可,这样网页端的逻辑会变轻。

如果业务对此类通知的展现不需要这么实时,完全可以通过拉取:

  • 只有在链接跳转,或者刷新网页时,才重新拉取最新的通知,例如上述计数

int getCountByType(int countType)

这样系统的实现会最简单。需要注意,通知拉取要异步,不要影响主页面的快速返回。

系统对1的推送,例如针对1个用户的业务计数推送,计数的变化频率其实非常低,使用cache来存储这些计数能够极大提升系统性能。

更多计数系统架构实践可详见《计数系统架构实践一次搞定》。

二、系统对多的通知

系统对多的通知消息,会比系统对1的通知消息复杂一些,以两个场景为例:

  • QQ登录弹窗新闻
  • QQ右下角弹窗广告

IM登录弹窗新闻

这个通知的需求是:

  • 同一天,用户登录弹出的新闻是相同的(很多业务符合这样的场景),不同天新闻则不一样(但所有用户都一样)
  • 每天第一次登录弹出新闻,当天的后续登录不出新闻

不妨设有一个表存放弹窗新闻

t_msg(msg_id, date, msg_content)

有一个表来存放用户信息

t_user(user_id, user_info, …)

有一个表来存放用户收到的新闻弹窗

t_user_msg(user_id, msg_id, date)

这里的实现明显不能采用推送的方式:

  • 将t_user_msg里对于所有user_id推送插入一个msg_id,表示未读
  • 在user每天第一次登录的时候,将当天的msg_id拉取出来,并删除,表示已读
  • 在user每天非第一次登录的时候,就拉取不到msg_id于是不会再次弹窗

这个笨拙的方式,会导致t_user_msg里有大量的脏数据,毕竟大部分用户并不会登录。

如果改为拉取的方式会好很多:

  • 在user每天第一次登陆时,将当天的msg_id拉取出来,并插入t_user_msg,表示已读
  • 在user每天非第一次登陆时,则会插入t_user_msg失败,则说明已读,不再进行二次弹窗展现

这个方式虽然有所优化,但t_user_msg的数据量依然很大。

还有一种巧妙的方式,去除t_user_msg表,改为在t_user表加一列,表示用户最近拉取的弹窗时间:

t_user(user_id, user_info, last_msg_date, …)

这样业务流程会升级为:

  • 在user每天第一次登录时,将当天的msg_id拉取出来,并将last_msg_date修改为今天
  • 在user每天非第一次登录时,发现last_msg_date为今天,则说明今天已读

这种方式不再存储消息与用户的笛卡尔关系,数据量会大大减少,是不是有点意思?

IM右下角弹窗广告

这个通知的需求是:

  • 每天会对一批在线用户推送相同的弹窗TIPS广告,例如球鞋广告,手机广告等

画外音:如果1个推送一块钱,5KW用户推送收入就有5KW收入哟,一天推个几次,实现1个亿的小目标居然如此简单。

最直观的感受,这是一个for循环批量推送的过程。如果是推送,必须要考虑的问题是,推送限速控制,避免短时间内对系统造成冲击,引发雪崩。

能不能用拉取呢?

完全可以,这是一个对实时性要求不太高的场景,用户早1分钟晚1分钟收到这个广告影响不大,其实可以借助IM原本已有的keepalive请求,在请求返回时,告之“有消息拉取”,然后采用拉取的方式拉取广告消息。

这个方案的好处是,由于5KW在线用户的keepalive请求是均匀的,所以可以很均匀的将广告拉取的请求同样均匀的分散到一段时间内,避免5KW集中推送对系统造成冲击。

三、总结

广义系统通知,究竟是推送还是拉取呢?不同业务,不同需求,实现方式不同。

系统对1的通知:

  • 实时性要求高,可以推送
  • 实时性要求低,可以拉取

系统对N的通知:

  • 登录弹窗新闻,拉取更佳,可以用一个last_msg_date来避免大量数据的存储
  • 批量弹窗广告,常见的方法是推送,需要注意限速,也可以拉取,以实现请求的均匀分散

系统通知究竟是推还是拉,是一个相对比较简单的场景。对于feed流,单聊群聊,状态同步会更为复杂,这些场景,下期分解。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-05-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 架构师之路 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
对象存储
对象存储(Cloud Object Storage,COS)是由腾讯云推出的无目录层次结构、无数据格式限制,可容纳海量数据且支持 HTTP/HTTPS 协议访问的分布式存储服务。腾讯云 COS 的存储桶空间无容量上限,无需分区管理,适用于 CDN 数据分发、数据万象处理或大数据计算与分析的数据湖等多种场景。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档