首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

预测数据的收集整理

预测排班的第2个环节就是数据的收集整理,一般来讲,我们会取最近三年的历史数据作为我们的基础数据。取值的范围要根据实际情况而定。比如说如果最近业务量变化很大,电话量变化也非常大,那么我们可以取最近的几个月,甚至一两个月的数据作为一个基础数据。如果业务量几年变化都不是很大,那么我们就可以参考两三年左右的数据都是可以的。数据就按48个颗粒去排,也就是说每天24小时,每半小时一个颗粒。比如说凌晨00:00~00:30呼入多少电话,然后人工接通多少,多少呼损。48个颗粒全部排列出来,这是第1步。

第二步就是对数据做一些整理去伪的工作,因为不好的数据会影响我们的预测准确度。如果数据很多,那么这种影响会比较小,但是如果数据很少,比如说只拿最近一个月两个月的数据去做一个分析的话,那么这种整理的工作就必不可少。因为假如说有一天数据有异常的话,那么很有可能就会影响到后面的预测的准确性。

那么为什么数据会有异常呢?第1个可能性就是,因为某一天接通率偏低而导致的重复拨打。接通率偏低有很多种原因,比如安排的人员过少,可能人员就没有那么多,所以安排不了。或者当天有异常来电,比如说有促销活动或者说是有系统的异常,会导致呼入量明显的增多或者是接起明显的偏少。像促销活动,可能会拨入明显的增多,如果是系统的一些故障,会导致接起明显的偏少,这种情况下就会导致接通率比较低,低于90%甚至低于百分之五六十都是有可能的,中间会包含很多当天的重复拨打的量,所以这样的数据是要去掉的。

第2种可能是各种原因的数据错误,特别是没有系统保存数据,用表格保存的情况下,缺失、错误也是有可能的。基础的数据整理好,因为各种波动的原因导致的一些量要去掉。

还有一种方法就是不考虑那些波动量。我们把数据整体当做一个黑匣子,只看输入输出。最终的一个呼入量,最终的一个人工接起量,最终的一个接通率,把它们作为一个整体来分析。但是就像前面讲的,如果是历史数据比较少,一两个月的话,这样做的偏差太大,我们还是用第1种方法,就是把异常的数据去掉。如果是历史数据比较多啊,一两年两三年的话,采用第2种方法就是从黑匣子的方法不考虑它的波动因素,这样的情况下影响会较小。但是从排班当前开始以后每天的这种波动的原因,波动的这种影响都要详细的记录下来,作为后期分析的一个依据。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20200507A0NXY800?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券