很难有机会接触这么多的实际真实数据。 通过对于这些数据的分析,初步了解大数据的处理方式。 进一步掌握MongoDB的特性,熟练Excel的高级用法。 这里只是做分析,不提供源代码,毕竟是一个比赛。 这里只是做分析,不提供源代码,我也无意开发一个完整的程序。
http://research.xiaojukeji.com/competition/detail.action?competitionId=DiTech2016
构建一个模型,根据天气,交通,区域里面的各种设施,以往历史数据,预测未来的某个时间点,某个区域里,打车需求的缺口。整个算法其实就是一个有监督的机器学习的过程。
(5月20日版本)下载后的整个压缩数据包575M,其中包括的订单数据大约900万条。(其他Master表数据量很小,这里忽略不计) 使用MongoDB存储的话,大概使用2GB的空间,全部导入之后,工作用计算机十分卡顿。MongoCola管理软件失去响应。所以,这里的订单按照日期导入。(训练的时候,按照天来训练) 注意:官方的订单数据的 订单号 OrderID是主键重复的。这里以第一次出现的订单号的数据为准。 官方对于重复订单的解释:
关于订单的目标区域HashCode,这里发现一部分数据是无法找到的,可能是跨区域的。 (全部订单:498789 ,目的地可以找到:406138,跨区域:92651)
由于数据量非常庞大,所以这里建议将中间的计算结果也放入数据库中备用。
订单数据整理,主要是整理出各个时段,各个地域的订单数据。
数据整理尽量使用LINQ进行处理,MONGODB查询是消耗时间的!!!,这里数据库只是用作数据的存储不做计算
private void btnImportDB_Click(object sender, EventArgs e)
{
string rootFolder = txtRootDir.Text;
//Order: Root + "\order_data"
foreach (var filename in Directory.GetFiles(rootFolder + "\\order_data"))
{
if (!filename.Contains("._"))
{
string strDate = filename.Substring(filename.LastIndexOf("_") + 1);
var colname = "Order_" + strDate;
Database.Clear(colname);
var orderlist = new List<Order>();
var read = new StreamReader(filename);
while (!read.EndOfStream)
{
var o = Order.Gernerate(read.ReadLine());
orderlist.Add(o);
}
orderlist = orderlist.Distinct(x => x.order_id).ToList();
Database.InsertRecBatch(orderlist, colname);
var orderGaplist = new List<OrderGap>();
Database.Clear("OrderGap_" + strDate);
for (int time = 1; time < 144 + 1; time++)
{
for (int area = 1; area < 66 + 1; area++)
{
var m = new OrderGap() { DistrictId = area,TimeSlient = time};
m.Total = orderlist.Count((x) => { return x.DistrictID == area && x.TimeSlient == time; });
m.Gap = orderlist.Count((x) => { return x.DistrictID == area && x.TimeSlient == time && x.driver_id == "NULL" ; });
m.GapPercent = m.Total == 0 ? 0 : Math.Round(((double)m.Gap / m.Total) * 100, 2);
orderGaplist.Add(m);
}
}
Database.InsertRecBatch(orderGaplist, "OrderGap_" + strDate);
//暂时只分析一天数据
break;
}
}
}
以下是2016-01-01的数据分析。蓝色的是GAP缺口数,红色的是Total数。 一天24个小时整体需求分布可以看个大概了。 PS 区域1 :占整体的5.1%订单量,有一定的参考价值
区域51 :占整体的22.5%订单量,有一定的参考价值
整体上看,所有区域的分时图 2016-01-01的数据图:
这里看到,整个24小时分布极不均衡。考虑到 01-01 是一个特殊的日子,大家为了跨年而在零点之后选择打车也是可以理解的。
同样的51区域,2016-01-02的情况则比较正常,整体的高峰出现在夜间16:50 - 17:20(评价订单850) 左右。21:10,22:00也是两个小高峰(平均订单720)。
以下数据为2016-01-01的数据统计
整体有效订单数:498789(订单ID去重复) 66个区域的订单分布是极其不均衡的.
MAX | MIN | AVG |
---|---|---|
112023 | 71 | 7557.4 |
排名后33位的,总共只有整体的4.37%的订单 排名前5位的,总共只有整体的50.87%的订单
我们将POI总数/30 和订单数一起放到柱状图中发现,POI总数和订单数应该有一些联系。 一个区域POI数越多说明这个地区越是繁华,从这里打车的需求就越多。
滴滴打车的POI分为了25个分类,我们选取了 2016-01-01 对于POI的分类和订单之间的关系也作了研究。 按照实际来说,例如有100家KTV,则每家KTV为贡献一些订单。同理,如果是饭店,每家饭店也会贡献一些订单。 这里的图表示了各个POI分类的数量和总体订单的关系。
天气数据库是里面的数据分为PM2.5的值。天气状态编码(编码和实际对应关系未知),以及温度情况。 按照道理来说,如果天气越差,则打车的需求就越旺盛。 下面我们来分析一下天气和订单的关系。 选择 2016-01-03作为分析对象。 天气数据每个时间片测试两次,为了方便观察,我们选择第一次测试结果作为考察对象。
当天全时段的PM2.5和温度分时图
天气类型编号和天气描述,请参见 滴滴算法大赛算法解决过程 - 机器学习
当天的全区域的订单情况分时图
从一天的时间看,在不明确天气类型的时候,PM2.5和温度对于整体的影响很难看到直接关联的证据。
我们考察最繁华的51区域,周一到周日对于订单量的关系。 这里观察到并没有什么规律可循
第05区域也是这样的。
这里的交通数据是每个区域里面,不同拥挤状况的道路条数。 2016-01-07 #51 区域分时拥堵状态图 (0:10 -23:50 143个数据)
大部分情况下,Level1的道路条数占据了绝大多数。(LV4最拥堵)
看一下Level4 #51区域的情况