前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【死磕Sharding-jdbc】---group by结果合并(2)

【死磕Sharding-jdbc】---group by结果合并(2)

作者头像
用户1655470
发布2018-07-24 17:11:07
6690
发布2018-07-24 17:11:07
举报
文章被收录于专栏:chenssychenssy

在sharding-jdbc源码之group by结果合并(1)中主要分析了sharding-jdbc如何在GroupByStreamResultSetMergerGroupByMemoryResultSetMerger中选择,并分析了GroupByStreamResultSetMerger的实现;接下来分析GroupByMemoryResultSetMerger的实现原理;

通过sharding-jdbc源码之group by结果合并(1)的分析可知,如果要走GroupByMemoryResultSetMerger,那么需要这样的SQL: SELECT o.status,count(o.user_id)count_user_id FROM t_order o whereo.user_id=10groupbyo.status order bycount_user_id asc,即group by和order by的字段不一样;接下来的分析都是基于这条SQL;

ExecutorEngine.build()方法中通过 returnnewGroupByMemoryResultSetMerger(columnLabelIndexMap,resultSets,selectStatement);调用GroupByMemoryResultSetMerger,GroupByMemoryResultSetMerger的构造方法源码如下:

代码语言:javascript
复制
public GroupByMemoryResultSetMerger(        final Map<String, Integer> labelAndIndexMap, final List<ResultSet> resultSets, final SelectStatement selectStatement) throws SQLException {    // labelAndIndexMap就是select结果列与位置索引的map,例如{count_user_id:2, status:1}    super(labelAndIndexMap);    // select查询语句    this.selectStatement = selectStatement;    // resultSets就是并发在多个实际表执行返回的结果集合,在多少个实际表上执行,resultSets的size就有多大;    memoryResultSetRows = init(resultSets);}

在实际表torder0和torder1上执行SQL返回的结果如下:

torder0和torder1结果.png

知道实际表的返回结果后,后面的分析更容易理解;假定这些返回结果用json表示为:{[{"status":"NEW", "countuserid":1},{"status":"VALID", "countuserid":1},{"status":INIT, "countuserid":2}],[{"status":"VALID", "countuserid":1},{"status":"INIT", "countuserid":1},{"status":""NEW, "countuserid":3}]}

init()方法源码如下:

代码语言:javascript
复制
private Iterator<MemoryResultSetRow> init(final List<ResultSet> resultSets) throws SQLException {    Map<GroupByValue, MemoryResultSetRow> dataMap = new HashMap<>(1024);    Map<GroupByValue, Map<AggregationSelectItem, AggregationUnit>> aggregationMap = new HashMap<>(1024);    // 遍历多个实际表执行返回的结果集合中所有的结果,即2个实际表每个实际表3条结果,总计6条结果    for (ResultSet each : resultSets) {        while (each.next()) {            // each就是遍历过程中的一条结果,selectStatement.getGroupByItems()即group by项,即status,将结果和group by项组成一个GroupByValue对象--实际是从ResultSet中取出group by项的值,例如NEW,VALID,INIT等            GroupByValue groupByValue = new GroupByValue(each, selectStatement.getGroupByItems());            // initForFirstGroupByValue()分析如下            initForFirstGroupByValue(each, groupByValue, dataMap, aggregationMap);            aggregate(each, groupByValue, aggregationMap);        }    }    // 将aggregationMap中的聚合计算结果封装到dataMap中    setAggregationValueToMemoryRow(dataMap, aggregationMap);    // 将结果转换成List<MemoryResultSetRow>形式    List<MemoryResultSetRow> result = getMemoryResultSetRows(dataMap);    if (!result.isEmpty()) {        // 如果有结果,再将currentResultSetRow置为List<MemoryResultSetRow>的第一个元素        setCurrentResultSetRow(result.get(0));    }    // 返回List<MemoryResultSetRow>的迭代器,后面的取结果,实际上就是迭代这个集合;    return result.iterator();}

initForFirstGroupByValue()源码如下:

代码语言:javascript
复制
private void initForFirstGroupByValue(final ResultSet resultSet, final GroupByValue groupByValue, final Map<GroupByValue, MemoryResultSetRow> dataMap,                                       final Map<GroupByValue, Map<AggregationSelectItem, AggregationUnit>> aggregationMap) throws SQLException {    // groupByValue如果是第一次出现,那么在dataMap中初始化一条数据,key就是groupByValue,例如NEW;value就是new MemoryResultSetRow(resultSet),即将ResultSet中的结果取出来封装到MemoryResultSetRow中,MemoryResultSetRow实际就一个属性Object[] data,那么data值就是这样的["NEW", 1]     if (!dataMap.containsKey(groupByValue)) {        dataMap.put(groupByValue, new MemoryResultSetRow(resultSet));    }    // groupByValue如果是第一次出现,那么在aggregationMap中初始化一条数据,key就是groupByValue,例如NEW;value又是一个map,这个map的key就是select中有聚合计算的列,例如count(user_id),即count_user_id;value就是AggregationUnit的实现,count聚合计算的实现是AccumulationAggregationUnit    if (!aggregationMap.containsKey(groupByValue)) {        Map<AggregationSelectItem, AggregationUnit> map = Maps.toMap(selectStatement.getAggregationSelectItems(), new Function<AggregationSelectItem, AggregationUnit>() {            @Override            public AggregationUnit apply(final AggregationSelectItem input) {                // 根据聚合计算类型得到AggregationUnit的实现                return AggregationUnitFactory.create(input.getType());            }        });        aggregationMap.put(groupByValue, map);    }}

该方法都是为了接下来的聚合计算做准备工作;

aggregate()源码如下--即在内存中将多个实际表中返回的结果进行聚合:

代码语言:javascript
复制
private void aggregate(final ResultSet resultSet, final GroupByValue groupByValue, final Map<GroupByValue, Map<AggregationSelectItem, AggregationUnit>> aggregationMap) throws SQLException {    // 遍历select中所有的聚合类型,例如COUNT(o.user_id)    for (AggregationSelectItem each : selectStatement.getAggregationSelectItems()) {        List<Comparable<?>> values = new ArrayList<>(2);        if (each.getDerivedAggregationSelectItems().isEmpty()) {            values.add(getAggregationValue(resultSet, each));        } else {            for (AggregationSelectItem derived : each.getDerivedAggregationSelectItems()) {                values.add(getAggregationValue(resultSet, derived));            }        }        // 通过AggregationUnit实现类即AccumulationAggregationUnit进行聚合,实际上就是聚合本次遍历到的ResultSet,聚合的临时结果就在AccumulationAggregationUnit的属性result中(AccumulationAggregationUnit聚合的本质就是累加)        aggregationMap.get(groupByValue).get(each).merge(values);    }}

经过 for(ResultSeteach :resultSets){while(each.next()){...遍历所有结果并聚合计算后,aggregationMap这个map中已经聚合计算完后的结果,如下所示:

代码语言:javascript
复制
{    "VALID": {        "COUNT(user_id)": 2    },    "INIT": {        "COUNT(user_id)": 5    },    "NEW": {        "COUNT(user_id)": 3    }}

再将aggregationMap中的结果封装到 Map<GroupByValue,MemoryResultSetRow>dataMap这个map中,结果形式如下所示:

代码语言:javascript
复制
{    "VALID": ["VALID", 2],    "INIT": ["INIT", 5],    "NEW": ["NEW", 3]}

MemoryResultSetRow的本质就是一个 Object[]data,所以其值是["VALID", 2],["INIT", 5]这种形式

将结果转成 List<MemoryResultSetRow>,并且排序--如果有order by,那么根据order by的值进行排序,否则根据group by的值排序:

代码语言:javascript
复制
private List<MemoryResultSetRow> getMemoryResultSetRows(final Map<GroupByValue, MemoryResultSetRow> dataMap) {    List<MemoryResultSetRow> result = new ArrayList<>(dataMap.values());    Collections.sort(result, new GroupByRowComparator(selectStatement));    return result;}@RequiredArgsConstructorpublic final class GroupByRowComparator implements Comparator<MemoryResultSetRow> {    private final SelectStatement selectStatement;    @Override    public int compare(final MemoryResultSetRow o1, final MemoryResultSetRow o2) {        if (!selectStatement.getOrderByItems().isEmpty()) {            return compare(o1, o2, selectStatement.getOrderByItems());        }        return compare(o1, o2, selectStatement.getGroupByItems());    }    ...}

到这里,GroupByMemoryResultSetMerger即内存GROUP聚合计算已经分析完成,依旧通过运行过程图解加深对GroupByMemoryResultSetMerger的理解,运行过程图如下图所示:

总结

正如GroupByMemoryResultSetMerger的名字一样,其实现原理是把所有结果加载到内存中,在内存中进行计算,而GroupByMemoryResultSetMerger是流式计算方法,并不需要加载所有实际表返回的结果到内存中。这样的话,如果SQL返回的总结果数比较多,GroupByMemoryResultSetMerger的处理方式就可能会撑爆内存;这个是使用sharding-jdbc一个非常需要注意的地方;

END

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-05-27,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Java技术驿站 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 总结
相关产品与服务
流计算 Oceanus
流计算 Oceanus 是大数据产品生态体系的实时化分析利器,是基于 Apache Flink 构建的企业级实时大数据分析平台,具备一站开发、无缝连接、亚秒延时、低廉成本、安全稳定等特点。流计算 Oceanus 以实现企业数据价值最大化为目标,加速企业实时化数字化的建设进程。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档