腾讯云
最新活动
HOT
产品
解决方案
定价
企业中心
云市场
开发者
客户支持
合作与生态
了解腾讯云
关闭
搜索
消息队列 CMQ
文档中心
入门中心
API 中心
SDK 中心
我的反馈
开发与运维产品文档捉虫活动邀您参加!>
HOT
查询
查看全部搜索结果
文档中心
>
消息队列 CMQ
>
案例分享
>
起点文学网案例
起点文学网案例
最近更新时间:2021-10-26 11:02:40
微信扫一扫
QQ
新浪微博
复制链接
链接复制成功
我的收藏
阅文集团旗下的起点文学网,使用 CMQ 满足了3个核心需求:
『仗义书财』的运营系统,里面抢红包月票的功能,消费者入账的时候是异步的。入账信息会先写到 MQ 里。 消费者过来拉,且消费者确认已成功消费后,回调接口把 MQ 里的信息删掉。
另一个场景是,起点文学网的各大系统,包括运维、告警、运营系统的日志流水,会先聚合到 CMQ 中,后端的大数据分析集群,会按处理能力,不断到 CMQ 中拉取、分析。CMQ 理论上支持的消息堆积数量无上限,使用无后顾之忧。
提供类似于 Kafka 的消息回溯能力。当业务成功消费,并删除消息后,使用消息回溯,可重新消费已删除的消息。可指定 offset 的位置进行调整。这便于起点文学网,做账单的对账、业务系统重试等。
起点文学的整体业务对 CMQ 的压力,API 请求的 QPS 超过10万,全天请求量超10亿次,客户担忧如此大的业务压力,CMQ 是否能稳定支持?
CMQ 后端的集群对用户来说是透明无感知的,CMQ controller server 可根据集群的负载情况实时对queue进行调度搬迁。如果某个queue的请求量超过当前集群的服务阈值,controller server 可以将 queue 路由分布到多个集群上来提高并发量,理论上可以达到无限的消息堆积以及超高的QPS。
参考图示如下:
上一篇: 第三方支付案例
下一篇: 在线图片处理案例
有奖反馈
文档活动
文档“捉虫”活动
检视指定产品文档,发现和反馈有效问题,奖!
API专项"捉虫"
反馈API文档问题,代金券、周边好礼奖不停!
文档建议,你提了吗
快来使用腾讯云产品文档,提出有效建议,奖!
联系我们
售前咨询
专属客户经理在线解答,提供专业的上云方案
售后支持
7*24获取专业工程师的帮助,快速解决您的问题
查看更多联系、反馈方式 >
在线客服
智能诊断,即时回复
查看更多联系 >
目录
返回顶部