【云和恩墨大讲堂】Oracle线上嘉年华第二讲

编辑手记:Oracle线上嘉年华,正在持续分享中。本次的主题是系统割接中的SQL解析问题和结合业务的SQL优化改写技巧。

1

嘉宾介绍

小鱼(邓秋爽)

云和恩墨专家,有超过5年超大型数据库专业服务经验,擅长oracle 数据库优化、SQL优化和troubleshooting

新系统割接的library cache问题

这是我们在做系统割接的时候的一个案例,可能并不是很常见,这个案例是将Oracle 11g升级到12c的时候遇到的问题,出现了大量的library cache的问题。具体情况是:

新系统割接后,不定时出现大量library cache lock、library cache:mutex X,几分钟后系统自动恢复。

在短暂的时间里,我们来不及做systemdump的,而且出现的频率和时间也是不固定的,很难抓取到当时系统的信息。

先获取故障时段的AWR报告:

我们看到这两个等待事件已经占了整体DB time的72%,大家看到这个问题,可能一般都会想到解析,

我们从以下几个角度分析:

  • TopSQL的解析、执行频率是否合理:

故障点的library lock相关的SQL来看,基本占据db time、parse阈值高的Top SQL解析、执行频率并没有数量级的增加,他们更像是受害者。

  • Oraclebug是否存在:

系统版本Oracle 12.1.0.2,经过原厂排查并不存在相关bug引起。

  • SQL解析是否存在问题,绑定变量使用分析:

查看awr报告硬解析次数很高,但是挖掘sharedpool发现系统中并未发现大幅度未使用绑定变量的SQL。

在oracle 10g的时候,V$SQLAREA视图有一个FORCE_MATCHING_SIGNATURE 参数,可以将SQL经过绑定变量代替后生成一个hashvalue值,通过这个值找到未使用绑定变量的SQL,而开发商的SQL的质量比较高,并未发现核心业务SQL未使用绑定变量的情况。

这样看来,这个问题是很棘手的,硬解析次数很高,但我们找不到对应的SQL在哪里。

我们接着分析,来看AWR报告里面的time model statistic

我们看到红色标记的部分,解析时间消耗了63.74%、解析失败消耗了50.55%。

解析失败是什么?Oracle的解释是这样的:

failed parse:语法、权限等无法执行的SQL解析,也是硬解析,并且解析失败是不能被重用的,当然它也不会存储在V$SQLAREA视图中,所以也挖掘不到这类SQL。

我们如何去发现在系统中解析失败的SQL呢?

Oracle提供了event 10035,会将解析失败的SQL记录到alert 日志里面

从上面的日志可以看到各种解析错误的代码,其中error=942,表示:表不存在,因此判断这是他们做系统变更的时候做过一些表的删除,我们可能在系统割接的时候都会做一些旧表的drop或者rename,这时候一定要严格挖掘应用端的代码,将下线的业务代码停掉,避免错误解析导致数据库出现严重的性能问题。

SQL优化改写技巧

接下来和大家分享执行计划结合业务逻辑的一个等价改写的例子

案例中的SQL如上,大致由两部分组成,上下各是一个标量子查询,然后用union all联合在一起做了一个order by,在结果显示中使用了分页。

我们通过脚本获得该SQL单次逻辑读将近18000000.返回行数为10行,响应时间达到104036MS。

这是个很复杂的SQL,包含标量子查询、表连接、unionall、排序、分页,还有一些复杂的decode、nvl等函数,通过awr报告我们得知该SQL单次执行需要1500多万到1900多万的逻辑读,平均都只返回10行数据,单次执行时间也要100秒左右。

我们可以将SQL简化如下:

select * from (select row_.*, rownum rownum_ from (SELECT ST.* FROM (Select …TO_CHAR(T.SIGNDATE, ‘YYYYMMDDHH24:MI:SS’) AS SIGNDATE …(标量子查 询1)、(标量子查询2)... From MM_MK_CUSTMGR_SIGN T WHERE T.REGION = 14 Union all Select …TO_CHAR(T.SIGNDATE, 'YYYYMMDDHH24:MI:SS') AS SIGNDATE …(标量子查询 1)、(标量子查询2)... From MM_MK_CUSTMGR_SIGN T WHERE T.REGION = 14 AND T.SIGNOUTOID IS NOT NULL) ST ORDER BY SIGNDATE DESC) row_ where rownum <= :1) where rownum_ > :2

对于这种复杂的SQL,我们先看执行计划

这个执行计划我们做过相应删减。

在优化SQL中,我们优先考虑能否优化cost高的步骤,比如大表全表扫描、大表全索引快速扫描、跳跃索引扫描、大表排序等cost消耗; 其次看filter(优化了的nestedloop)、nested loop、hash join、笛卡尔积等表关联步骤cost消耗。

在上面的标量子查询中,Cost消耗最高的在这个view操作,COST消耗达到了14M、rows达到了501K,而这个view是由两部分union all组成的。

在下面的标量子查询中,两部分union all发现上层部分主查询MM_MK_CUSTMGR_SIGN T估算返回501k Rows,下层主查询则只有1Rows数据。

注:在Oracle的估算中是不存在0 Rows的情况,如果评估的结果是0,会算作1.

对于标量子查询,我们简单做个介绍,就是说优化器在这种情况下永远只做一种操作就是filter,这是一种变相优化nest loop。对于这种标量自从查询,我们知道其实SQL之所以出现问题是因为下面的501k导致需要驱动上面那堆复杂的标量子查询,

那么如何优化呢?

常规优化:对于标量子查询,可以使用等价改写为表的外连接方式让其走hash jion的执行计划,但是如果标量子查询中有大表则并不合适,该SQL恰恰包含大表,并不适合用常规的等价外连接的方式来改写。 业务结合执行计划分析:那么这个ORDER BYSIGNDATE DESC排序后rownum能否推进到主查询MM_MK_CUSTMGR_SIGN T表中,rownum限制后再去驱动标量子查询,减少标量子查询的循环次数。

接下来主要针对第二种,结合业务进行分析改写。

在上面的SQL中,是先取501k数据做了驱动,然后再做标量子查询和order by的操作,我们能不能把order by的操作推回到标量子查询前面,这样子的话标量子查询要驱动的只是前面排序取rownum限制条件的数据,我们通过画图的方式来分析一下:

首先是两个同样的表,做了标量子查询的操作,这里的数据是501k,然后标量子查询完了之后,做了order by后rownum的限制,这是原SQL的执行业务逻辑。

我认为应该写成这样,我们想限制标量子查询的循环次数,那我们就先去对主查询取order by排序rownum限制后的数据,再将主查询取出来的这部分数据去驱动标量子查询,做完后再做一次order by rownum的限制。(这里并不会改变SQL的业务逻辑,虽然我们是先排序取rownum限制了,但是标量子查询时主查询是先排序还是后排序取rownum限制对于主查询返回结果集没有任何影响)

根据这种思路,我把SQL改写如下:

SELECT * FROM (SELECT row_.*, rownum rownum_ FROM (SELECT ST.* FROM (SELECT …TO_CHAR(T.SIGNDATE, ‘YYYYMMDDHH24:MI:SS’) AS SIGNDATE …(标量子查询1)、(标 量子查询2)... FROM (SELECT * FROM tbcs.MM_MK_CUSTMGR_SIGN x WHERE x.REGION = 14 ORDER BY SIGNDATE DESC offset :2 rows FETCH NEXT :1 rows only) T

UNION ALL SELECT …TO_CHAR(T.SIGNDATE, 'YYYYMMDDHH24:MI:SS') AS SIGNDATE …(标量子查询1)、(标 量子查询2)... FROM (SELECT * FROM tbcs.MM_MK_CUSTMGR_SIGN x WHERE x.REGION = 14 ORDER BY SIGNDATE DESC offset :2 rows FETCH NEXT :1 rows only ) T ) ST ORDER BY SIGNDATE DESC) row_ WHERE rownum <= :1) WHERE rownum_ > :2

其中红色部分是12C的改写方式。是用一个分析函数的方式去做的。

它的执行计划如下:

先访问表MM_MK_CUSTMGR_SIGN排序取rownum限制(前10行数据后),再去驱动那堆复杂的标量子查询,最后再次排序取rownum条件数据,逻辑读从千万级降低到了26661。

这个SQL在改写后,资源消耗降低了许多,基本上能够满足业务的需求。

如果我们再去剖析原SQL代码,发现union all部分是同一个MM_MK_CUSTMGR_SIGN表的查询,下面那个UNION ALL部分查询出来的结果是上面UNION ALL部分的子集。

而跟研发沟通发现实际上union all的下层查询可以去掉,去掉后则该SQL无需改写rownum就可以直接推进到主查询中,从这个例子可以看到不严谨的代码容易造成性能隐患,影响优化器评估最合理的执行计划。

通过以上分享,我们得出:

1、线上系统变更、表下线需要严格挖掘应用端代码,避免因为表结构变更导致SQL解析错误。 2、复杂业务逻辑对应的SQL需要核查,对于不需要的结果和表关联等尽可能去掉,简化表关联数量,合理利用优化器。

原文发布于微信公众号 - 数据和云(OraNews)

原文发表时间:2016-12-12

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏杨建荣的学习笔记

Oracle和MySQL中短小精悍的SQL

如果让你写一个简单牛叉的SQL,数据库类型不限,你会写出什么样的SQL语句。 Oracle 如果是Oracle,我就写个drop table dual; ...

3455
来自专栏编程之路

学校报修管理系统设计

需求分析:学校报修类别有两种,常规报修和电教报修。教师提交报修填写报修单后,自动派单到维修人员,维修人员接单维修,维修后结束报修单,报修教师对维修人员进行评价。...

5206
来自专栏杨建荣的学习笔记

持续近7个小时的索引扫描的查询优化分析 (r5笔记第44天)

昨天客户的DBA反映有一个数据抽取的任务持续了很长时间最后超时退出了,让我看看有什么地方可以调优一下。 找到了对应的日志,发现在一个大表抽取的时候,抽取持续了将...

4105
来自专栏技术博文

MyISAM InnoDB 区别

MyISAM 和 InnoDB 讲解   InnoDB和MyISAM是许多人在使用MySQL时最常用的两个表类型,这两个表类型各有优劣,视具体应用而定。基本的差...

3487
来自专栏L宝宝聊IT

T-SQL应用实例

1444
来自专栏枕边书

见招拆招-PostgreSQL中文全文索引效率优化

前言 上文 使用PostgreSQL进行中文全文检索 中我使用 PostgreSQL 搭建完成了一套中文全文检索系统,对数据库配置和分词都进行了优化,基本的查询...

5348
来自专栏数据和云

杀手SQL- 一条关于 &#39;Not in&#39; SQL 的优化案例

编辑手记:在 DBA 所优化的数据库环境中,绝大多数性能问题其实是由于 SQL 编写不当导致的。SQL 的世界无奇不有,今天我们一起见识一条让你绝对想吐血的杀手...

3436
来自专栏数据分析

SQL Server 性能优化之——系统化方法提高性能

1. 概述 在比较大的范围内找出能够大幅提高性能的区域,并且专注于分析这个区域,这是最有效的优化SQL Server性能的方式。否则,大量的时间和精力可能被浪费...

4516
来自专栏PHP在线

MyISAM InnoDB 区别

 MyISAM 和 InnoDB 讲解   InnoDB和MyISAM是许多人在使用MySQL时最常用的两个表类型,这两个表类型各有优劣,视具体应用而定。基本的...

3515
来自专栏数据和云

区间检索SQL性能优化方法

编辑手记:RWP(Real World Performance)团队是全球最优秀的性能优化团队,他们的目标在于系统性能千倍的提升。感谢刘永甫专家的授权,他从RW...

2946

扫码关注云+社区