【死磕Sharding-jdbc】---group by结果合并(2)

在sharding-jdbc源码之group by结果合并(1)中主要分析了sharding-jdbc如何在GroupByStreamResultSetMergerGroupByMemoryResultSetMerger中选择,并分析了GroupByStreamResultSetMerger的实现;接下来分析GroupByMemoryResultSetMerger的实现原理;

通过sharding-jdbc源码之group by结果合并(1)的分析可知,如果要走GroupByMemoryResultSetMerger,那么需要这样的SQL: SELECT o.status,count(o.user_id)count_user_id FROM t_order o whereo.user_id=10groupbyo.status order bycount_user_id asc,即group by和order by的字段不一样;接下来的分析都是基于这条SQL;

ExecutorEngine.build()方法中通过 returnnewGroupByMemoryResultSetMerger(columnLabelIndexMap,resultSets,selectStatement);调用GroupByMemoryResultSetMerger,GroupByMemoryResultSetMerger的构造方法源码如下:

public GroupByMemoryResultSetMerger(        final Map<String, Integer> labelAndIndexMap, final List<ResultSet> resultSets, final SelectStatement selectStatement) throws SQLException {    // labelAndIndexMap就是select结果列与位置索引的map,例如{count_user_id:2, status:1}    super(labelAndIndexMap);    // select查询语句    this.selectStatement = selectStatement;    // resultSets就是并发在多个实际表执行返回的结果集合,在多少个实际表上执行,resultSets的size就有多大;    memoryResultSetRows = init(resultSets);}

在实际表torder0和torder1上执行SQL返回的结果如下:

torder0和torder1结果.png

知道实际表的返回结果后,后面的分析更容易理解;假定这些返回结果用json表示为:{[{"status":"NEW", "countuserid":1},{"status":"VALID", "countuserid":1},{"status":INIT, "countuserid":2}],[{"status":"VALID", "countuserid":1},{"status":"INIT", "countuserid":1},{"status":""NEW, "countuserid":3}]}

init()方法源码如下:

private Iterator<MemoryResultSetRow> init(final List<ResultSet> resultSets) throws SQLException {    Map<GroupByValue, MemoryResultSetRow> dataMap = new HashMap<>(1024);    Map<GroupByValue, Map<AggregationSelectItem, AggregationUnit>> aggregationMap = new HashMap<>(1024);    // 遍历多个实际表执行返回的结果集合中所有的结果,即2个实际表每个实际表3条结果,总计6条结果    for (ResultSet each : resultSets) {        while (each.next()) {            // each就是遍历过程中的一条结果,selectStatement.getGroupByItems()即group by项,即status,将结果和group by项组成一个GroupByValue对象--实际是从ResultSet中取出group by项的值,例如NEW,VALID,INIT等            GroupByValue groupByValue = new GroupByValue(each, selectStatement.getGroupByItems());            // initForFirstGroupByValue()分析如下            initForFirstGroupByValue(each, groupByValue, dataMap, aggregationMap);            aggregate(each, groupByValue, aggregationMap);        }    }    // 将aggregationMap中的聚合计算结果封装到dataMap中    setAggregationValueToMemoryRow(dataMap, aggregationMap);    // 将结果转换成List<MemoryResultSetRow>形式    List<MemoryResultSetRow> result = getMemoryResultSetRows(dataMap);    if (!result.isEmpty()) {        // 如果有结果,再将currentResultSetRow置为List<MemoryResultSetRow>的第一个元素        setCurrentResultSetRow(result.get(0));    }    // 返回List<MemoryResultSetRow>的迭代器,后面的取结果,实际上就是迭代这个集合;    return result.iterator();}

initForFirstGroupByValue()源码如下:

private void initForFirstGroupByValue(final ResultSet resultSet, final GroupByValue groupByValue, final Map<GroupByValue, MemoryResultSetRow> dataMap,                                       final Map<GroupByValue, Map<AggregationSelectItem, AggregationUnit>> aggregationMap) throws SQLException {    // groupByValue如果是第一次出现,那么在dataMap中初始化一条数据,key就是groupByValue,例如NEW;value就是new MemoryResultSetRow(resultSet),即将ResultSet中的结果取出来封装到MemoryResultSetRow中,MemoryResultSetRow实际就一个属性Object[] data,那么data值就是这样的["NEW", 1]     if (!dataMap.containsKey(groupByValue)) {        dataMap.put(groupByValue, new MemoryResultSetRow(resultSet));    }    // groupByValue如果是第一次出现,那么在aggregationMap中初始化一条数据,key就是groupByValue,例如NEW;value又是一个map,这个map的key就是select中有聚合计算的列,例如count(user_id),即count_user_id;value就是AggregationUnit的实现,count聚合计算的实现是AccumulationAggregationUnit    if (!aggregationMap.containsKey(groupByValue)) {        Map<AggregationSelectItem, AggregationUnit> map = Maps.toMap(selectStatement.getAggregationSelectItems(), new Function<AggregationSelectItem, AggregationUnit>() {            @Override            public AggregationUnit apply(final AggregationSelectItem input) {                // 根据聚合计算类型得到AggregationUnit的实现                return AggregationUnitFactory.create(input.getType());            }        });        aggregationMap.put(groupByValue, map);    }}

该方法都是为了接下来的聚合计算做准备工作;

aggregate()源码如下--即在内存中将多个实际表中返回的结果进行聚合:

private void aggregate(final ResultSet resultSet, final GroupByValue groupByValue, final Map<GroupByValue, Map<AggregationSelectItem, AggregationUnit>> aggregationMap) throws SQLException {    // 遍历select中所有的聚合类型,例如COUNT(o.user_id)    for (AggregationSelectItem each : selectStatement.getAggregationSelectItems()) {        List<Comparable<?>> values = new ArrayList<>(2);        if (each.getDerivedAggregationSelectItems().isEmpty()) {            values.add(getAggregationValue(resultSet, each));        } else {            for (AggregationSelectItem derived : each.getDerivedAggregationSelectItems()) {                values.add(getAggregationValue(resultSet, derived));            }        }        // 通过AggregationUnit实现类即AccumulationAggregationUnit进行聚合,实际上就是聚合本次遍历到的ResultSet,聚合的临时结果就在AccumulationAggregationUnit的属性result中(AccumulationAggregationUnit聚合的本质就是累加)        aggregationMap.get(groupByValue).get(each).merge(values);    }}

经过 for(ResultSeteach :resultSets){while(each.next()){...遍历所有结果并聚合计算后,aggregationMap这个map中已经聚合计算完后的结果,如下所示:

{    "VALID": {        "COUNT(user_id)": 2    },    "INIT": {        "COUNT(user_id)": 5    },    "NEW": {        "COUNT(user_id)": 3    }}

再将aggregationMap中的结果封装到 Map<GroupByValue,MemoryResultSetRow>dataMap这个map中,结果形式如下所示:

{    "VALID": ["VALID", 2],    "INIT": ["INIT", 5],    "NEW": ["NEW", 3]}

MemoryResultSetRow的本质就是一个 Object[]data,所以其值是["VALID", 2],["INIT", 5]这种形式

将结果转成 List<MemoryResultSetRow>,并且排序--如果有order by,那么根据order by的值进行排序,否则根据group by的值排序:

private List<MemoryResultSetRow> getMemoryResultSetRows(final Map<GroupByValue, MemoryResultSetRow> dataMap) {    List<MemoryResultSetRow> result = new ArrayList<>(dataMap.values());    Collections.sort(result, new GroupByRowComparator(selectStatement));    return result;}@RequiredArgsConstructorpublic final class GroupByRowComparator implements Comparator<MemoryResultSetRow> {    private final SelectStatement selectStatement;    @Override    public int compare(final MemoryResultSetRow o1, final MemoryResultSetRow o2) {        if (!selectStatement.getOrderByItems().isEmpty()) {            return compare(o1, o2, selectStatement.getOrderByItems());        }        return compare(o1, o2, selectStatement.getGroupByItems());    }    ...}

到这里,GroupByMemoryResultSetMerger即内存GROUP聚合计算已经分析完成,依旧通过运行过程图解加深对GroupByMemoryResultSetMerger的理解,运行过程图如下图所示:

总结

正如GroupByMemoryResultSetMerger的名字一样,其实现原理是把所有结果加载到内存中,在内存中进行计算,而GroupByMemoryResultSetMerger是流式计算方法,并不需要加载所有实际表返回的结果到内存中。这样的话,如果SQL返回的总结果数比较多,GroupByMemoryResultSetMerger的处理方式就可能会撑爆内存;这个是使用sharding-jdbc一个非常需要注意的地方;

END

原文发布于微信公众号 - Java技术驿站(chenssy89)

原文发表时间:2018-05-27

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏spring源码深度学习

java基础io流——File的告白(重温经典)

创建成功返回true,如果存在就不创建返回false,创建一个文件时需要确保当前文件夹存在,所有要异常处理。

1423
来自专栏简书专栏

Python程序结构2

上面一段代码的运行结果如下,从下面的结果可以看出速度差距为2、3倍左右,当数据量更大时,可能差距更大。:

1003
来自专栏风口上的猪的文章

.NET面试题系列[13] - LINQ to Object

"C# 3.0所有特性的提出都是更好地为LINQ服务的" - Learning Hard

1012
来自专栏Hadoop数据仓库

HAWQ技术解析(十) —— 过程语言

        HAWQ支持用户自定义函数(user-defined functions,UDF),还支持给HAWQ内部的函数起别名。编写UDF的语言可以是SQ...

4455
来自专栏JAVA后端开发

给mybatis添加自动建表,自动加字段的功能

以前项目用惯了hibernate,jpa,它有个自动建表功能,只要在PO里加上配置就可以了,感觉很爽. 但现在用mybatis,发现没有该功能,每次都加个字段...

3913
来自专栏应兆康的专栏

Python Web - Flask笔记5

MySQL Workbench是一款专为MySQL设计的ER/数据库建模工具。它是著名的数据库设计工具DBDesigner4的继任者。你可以用MySQL Wor...

1491
来自专栏鸿的学习笔记

sql解析的一些计划

关于sql解析的一些概述: 因为最近在研究如何将oracle的sql语句迁移到hive上去,前期是准备写一些udf函数去弥补hive缺失oracle函数...

832
来自专栏微信公众号:Java团长

深入浅出java静态代理和动态代理

代理模式,是常用的设计模式。特征是,代理类与委托类有相同的接口,代理类主要负责为委托类预处理消息、过滤消息、把消息转发给委托类。以及事后处理消息。

1071
来自专栏PHP在线

帮助你认识PHP的特点与发展

写在前面的话:之前做的一个项目,数据库及系统整体构架设计完成之后,和弟兄们经过一段时间的编码,系统如期上线,刚开始运行一切良好,后来随着数 据量的急剧膨胀,慢慢...

2843
来自专栏JMCui

Hybris IMPEX

1、Impex是基于java Model的一种面向对象的数据操作手段,因此写impex代码前需要理清java Model之间的依赖关系。 2、基本语法:mode...

3656

扫码关注云+社区