00:00
就是对于某一块业务来说的话,我们建立了一个完整的指标体系之后呢,整块业务就得到了监控,那么当数据发生异动的时后,我们可以通过指标体系去拆解这些问题,然后迅速的定位到哪些因素影响到了我们这个数据异动,那我们今天的直播主要会解决三个问题,呃,第一个的话就是去理解数据异动背后的业务才是最重要的,第二个的话是数据动应该如何快速的去定位问题,第三个的话是从数据买点到数据质量体系,然后再到数据异动分析,我们就形成了一个非常闭环的思维体系来思考。第一个问题,这是数据波动多少才叫数据异动,这是一个非常令人头疼的问题,因为有时候我们在工作当中,有时候就只下降了2%,但是运营就急哇,非要让我们分析去查一下这个数据到底是不是错了。
01:00
但是有时候呢,某些指标它下降了30%,而运营还像一个没事人一样,所以去回答数据波动多少才是数据动这个问题,我们还是要去分指标来看的,我们举一个简单的例子啊,就是体温,他现在是作为您看嗯,一个人他是否是新冠病例的疑似病例的一个核心指标,只要体温他从嗯正常值波动到37.4以上,就会被情绪做核酸检测,甚至是隔离,即便只是从36.9,然后波动到37.4,仅1.4%的波动就会产生如此大的影响,而对于身高体重来说呢,就不会有有这样的影响了,假设今年我长胖了20%,然后我回家的时候,回老家过过年的时候,我不会被机场的安检人员因为我长胖了而被拦下,对吧,所以这还是去分,需要去分,嗯,各个指标去。
02:00
看的,而且是指标后面代表的意义也是非常重要的,所以我们在分析移动的第一步,我们就要搞清楚这个异动指标背后的一个业务业务含义,这应该是非常重要的一步,如果是我们分析的指标脱离了业务含义,那么就是完全是没有意义的。那么在分析数据指标异动之前的话,我给大家总结了一个方法论,嗯,我们通过了misscc这样的模型去对数据的波动进行一个分类,然后尽可能的去列举出了数据波动的所有类型,并且使各个类型之间它是彼此独立的,最终我们把这个数据波动把它划分成了五类,第一个就是周期性的波动,第二个是业务内部因素影响的波动,第三个是外部因素影响的波动,第四个是数据传输问题而影响的波动。最后一个就是由于。
03:00
外因素,意外的其他因素引起的一个波动,那么我们会后面的话会替体的介绍每一个类型的数据波动,而对于意外波动引意外因素引起的这些数据波动的话,我们才会用到逻辑数的方法去拆解,呃,第一类的话就是在我们进行逻辑数拆解之前的话,我们需要先排除前四类,前四类的波动,因为像数据的周期性波动啊,它就本来就是一种比较自然的形态,我们举个例子来说,如果是对于对于一款游戏来说的话,周末节假日它的日活用户肯定会比工作日要高,如果是按小时数据来看的话,那当然是每天中午的12点到两点以及八点以后,它的数据会比其他阶段要高。再比如说公作公众号的发文的阅读量,它周内一定会比周末的阅读量要高,当当我们拿到一个数据波动问题的的时候,我需要确定这个问题。它是否是一。
04:00
个周期性的问题,如果是的话,我们就以周期性的变化就为缩说词,就可以把业务给怼回去了,那么我们的排查工作也就结束了。我们举个小小的,这是一个运营小杂这的数据,找到我们到时候是某两天的U下降的太厉害了,之后来帮我们排查一下到底是什么原因引起的,那么我们单看两天的的话,它下降的的确是挺快的,从已经下降了39.48%,那么我们拿到这个问题之后,我们先不着急去排查,我们去想可能这个是由于一个周期性变化而引起的,因为这个运营给到的数据,1月10号它是一个周末,而11号它是一个周,周一就是工作日和周末之间,它的数据肯定是会有差异的,我们估计这是由于周期性变化引起的,所以我们拉取了两道的数据,然后发现它的变化是这样子。
05:00
确实存在这样的一个周期性变化,那么周期性的波动它可能是由于对不同的业务,它可能会受到什么季节啊,节假日,周末等等因素的影响,所以是具体因素而定。那么排除完这个周期性的变动之外的话,我们去看一下,我们第二个排除的是需要排除已知的一些内部因素的影响,通常情况下,这些内部因素的影响它会来源于业务活动,例如运营,它经常会组织一些拉新、复活、促销等活动,第一活动会造成余优的一个升,销售额的一个上升,毕且销售额都是会高于同时的。那我举一个简单的例子来说,就是在某一段时间,也就是在这一段时间内,业务推出了一个登录奖励活动,那么这这段时间呢,我们的dau就上涨了35%,但是活动结束之后呢,这个dau又。
06:00
回到了一个正常的水平,像这类的话,就是由于业务内部的主动行为而造成的一个数据波动,它也是属于一个正常的活动范围,但是面对这种情况的话,我们作为数据分析是可以帮助业务去分析一下这样子的活动效果,那么也可以从数据的角度去找出哪些点是可以提升的,如果是能够给到业务一些意见和建议,那么我们的分析才是有价值的,也是我们数据分析师最终的一个价值体现。第三个的话,就是在排除数据驱动之前,我们还要去排除一些外部因素的影响,那么这些外部因素的影响可能是天气啊,政策呀,进对等等因素,而对于这些外部因素,我们作为数据分析师通常是无能为力去改变一些什么东西的,我这里也举一个小小的例子进行说明,嗯,比如说某款竞品,公司的某款竞品在国外被禁了,那么公司的产品它就。
07:00
替代了该竞品,那么EU就瞬间得到了一个提升,这就是由于政策因素影响而带来的一个利好的情况。然大部分在现实当中,它是一个负面的影响,所以对于这些不可控却又无能为力的外部因素影响,特别是负面的影响,我们可以,嗯,作为数据分析师的话,可以去估算一下它的影响以及它的影响周期,然后反馈给业务,以辅助业务进行一个决策。那么第四部分的话,就是需要去排除一个数据传输的问题,像周期性波动啊,业务主动影响以及外界因素的影响,都是我们为的一个正常的数据波动,而数据波动它可还有可能是受到了数据传输的影响,那么可能是某天某个调用的脚本它挂了,然后就造成了我们的数据,进而影响了数据的移动。
08:00
对,所以面对这样子某种问题,我们首先也需要去排除数据传输的影响,那么在排查数据传输的影响的话,我们就需要根据整个数据流去进行排查,我们数据流是从客户端然后入库,然后再到数据调度,然后再到监控脚本这样的一个流程,但是我们排查的就是反向进行一个排查,首先我们先可以看一下我报表,报表的数据和底的数据是否是一致的,如果是一致的话,那就是我们报表基本是没有什么问题的,我们就需要去通过逻辑数据拆解一下数据,呃,拆解一下这个数据自动的原因,如果是报表的数据和底层的数据库它是对不上的,那么可能就出现了是由于数据调度或者数据库库入库,或者是其他问题,如果是我们的数据调度是没有问题的,我们再继续往下进行排查,可能是。
09:00
据入库的问题,如果数据入库没有问题的话,我们就回到嗯,就回到这个服务端客户,嗯,服务端客户端和服务器进行一个数据的排查,然后找到相应的负责人去定位bug,然后找到他们去修复bug就好了。那么排查排除了上面四个因素的影响之后,我们确定,我们确定了这个数据它就是波动了,它并且不是由于周期性波动,也不是由于由于外部内部因素影响,以及以及我们的数据传输问题而影响的,而是一些其他的未知的因素影响的数据移动,那么这时候我们就可以通过逻辑数去进行一个拆解,然后去找找到最终的一个异动的原因。这里的话我们还是以dau的例子进行说明,假设某天产品的dau发生了一个异动,那么我们想要去定位一下这个异动的原。
10:00
我们就可以这样做,我们先通过对dau进行一个用户的拆解,用用户构成进行拆解,将dau它把它分成为分成新用户和老用户,老用户的话我也把它拆为这样一个下来的用户以及回流的用户,那么对于回流用户要进行一个细分,然后分成近期日注册的玩家流回流以及七日前的注册玩家的回流。那么这样拆分以后,我就可以看出到底是新用户减少了,还是老用户减少了。明确问题之后,我们在以不同的颗粒度进行拆分,最后定位到影响因素,那么除了这个用户构成之外,我们还可以从其他维度进行一个拆解,例如说我们可以从这个地区维度进行拆解,然后我们去看到底是哪个地区的用户,呃的这个下降了,那么找到如果是整体用户。
11:00
整个地区,所有地区的用户都减少了,那可能是产品产品本身就存在一定的问题,这个产品它和新用户的适配度可能不是很好,如果是只是某个地区它的用户减少了,那么可以继续往下拆分,可以是以服务器或者是以其他维度进行拆分,如果是以服务器进行拆分的话,我们可能分到某一个服务器的时候,就发现只有这个服务器的下降,那可能定位到的因素就是这个服务器可能他的某他挂了,然后用户进进不来,可能是这样子的原因。所以我们可以通过逻辑逻辑数的方法去快速的定位到数据异动的原因,然后去帮助业务去调整方案,并且辅助他们进行一个决策,那么逻辑数拆解这些数据大部分已经包含在了我们之前。
12:00
不好的指标体系当中了,我们只需要按照上述的思路,然后对这些指标维度进行拖拖拽拽,然后筛选出自己想要的指标和维度的组合,然后去看一个数据的变化,找到两个数差异比较大的,那么就是这个因素影响了我们的数据异动。当然有些时候排查问题他可能没有体现在指标体系当中,这时候就需要我们把嗯,把排查出的问题再把它加到指标体系当中,也方便我们日常的排查或者是监控。那么我们从这个数据异动,呃,从这个数据买点,然后得到了得到了用户的行为数据,然后有了用户行为数据之后呢,我们凝练出数据的指标和监控维度,实现了对业务的一个趋势的监控。当然当数据出现异动的时候,我们可以在指标体系中通过不同维度的筛选组合,然后去定位。
13:00
这些异动因素最终排查我们的业务问题,然后形成了三位一体的一个闭环的思维,这就是我们排查数据异动问题的一个整体的一个方法论。那么最后的话还是推广一下自己的公众号和B账号,我这边有两个公众号,一个是数据万花筒,一个是集术特工。数据万花筒的话主要会总结一些我在呃,我在这个工作中总结出来的方法论和数据分析师应应该具备的一些知识体系。第二个的话是一个特工,我主要会分享数据分析,求职面试的一些经面因,比如说简历怎么写啊,没有实习经历怎么去写数据分析项目等等,都会在这个公众号进进行分享。那么B站的话,主要是会分享一些学习视频,比如说比较好的学习视频,我会从地方把它搬运到我们B站,同时也会原创一些视频。
14:00
嗯,就欢迎大家持续关注,我们还会发各种各种福利,最后的话就谢谢大家的观看,祝各位老板新年快乐,牛年行大运,我们下期再见。
我来说两句