前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Oracle 创建磁盘组报错ORA-15137的问题分析与解决思路

Oracle 创建磁盘组报错ORA-15137的问题分析与解决思路

作者头像
数据和云
发布2021-10-13 15:00:49
7380
发布2021-10-13 15:00:49
举报
文章被收录于专栏:数据和云数据和云

ASM扩容本来是件很简单的事,当ASM磁盘准备好之后,直接一条命令就会添加上。但是也会有异常情况,最近就碰到Oracle 19c在扩容时报错的故障,供大家参考。

集群处于ROLLING PATCH模式

背景

某ERP数据库采用Oracle 19c RAC集群,部署架构为传统架构即两台计算节点外挂集中存储。ASM的DATA磁盘组空闲较小需扩容,执行对DATA磁盘组的扩容操作,但报错失败。

报错ORA-15137。这个报错还没见过。我们通过完整的分析过程来展现分析思路。

收集信息

1、查看ASM磁盘组现有状态

通过命令查询,ASM的DATA磁盘组用于存放数据文件;ARCH磁盘组用于存放归档文件。

其中DATA磁盘组总量2TB,目前空闲可用约300GB;ARCH磁盘组总量1TB,目前空闲可用约700GB。

代码语言:javascript
复制
[root@erp1 ~]# su - gridLast login: Fri Jan 15 15:37:01 CST 2021
[grid@erp1 ~]$ asmcmd
ASMCMD> lsdg
State    Type    Rebal  Sector  Logical_Sector  Block       AU  Total_MB  Free_MB  Req_mir_free_MB  Usable_file_MB  Offline_disks  Voting_files  Name
MOUNTED  EXTERN  N         512             512   4096  1048576   1048576   716705                0          716705              0             N  ARCH/
MOUNTED  NORMAL  N         512             512   4096  4194304     15360    14388             5120            4634              0             Y  CRS/
MOUNTED  EXTERN  N         512             512   4096  1048576   2097152   323132                0          323132              0             N  DATA/
ASMCMD>

2、查看磁盘(权限和属组)

①通过lsblk命令查询sdf、sdg、sdh、sdi,均为1TB磁盘;

②通过scsi_id命令查询磁盘ID;

③通过查看99-oracle-asmdevices.rules文件。在1月14日进行了修改,将3604fe8d100d5d230b888210a00000038磁盘绑定了别名asm-data03;

④在/dev目录下查看绑定状态正确无误。

代码语言:javascript
复制
[root@erp1 ~]# lsblk
NAME            MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda               8:0    0 558.7G  0 disk
├─sda1            8:1    0     1G  0 part /boot
└─sda2            8:2    0 557.7G  0 part
  ├─centos-root 253:0    0 493.7G  0 lvm  /
  └─centos-swap 253:1    0    64G  0 lvm  [SWAP]
sdb               8:16   0   5.5T  0 disk
└─sdb1            8:17   0     5T  0 part /backup
sdc               8:32   0     5G  0 disk
sdd               8:48   0     5G  0 disk
sde               8:64   0     5G  0 disk
sdf               8:80   0     1T  0 disk
sdg               8:96   0     1T  0 disk
sdh               8:112  0     1T  0 disk
sdi               8:128  0     1T  0 disk
up-0            252:0    0     5G  0 disk
up-1            252:1    0     5G  0 disk
up-2            252:2    0     5G  0 disk
up-3            252:3    0     1T  0 disk
up-4            252:4    0     1T  0 disk
up-5            252:5    0     1T  0 disk
up-6            252:6    0     5G  0 disk
up-7            252:7    0     5G  0 disk
loop0             7:0    0   4.3G  0 loop /media
up-10           252:10   0     1T  0 disk
up-12           252:12   0     5G  0 disk
up-13           252:13   0     5G  0 disk
up-16           252:16   0     1T  0 disk
up-20           252:20   0     5G  0 disk
up-21           252:21   0     1T  0 disk
up-23           252:23   0     1T  0 disk
up-24           252:24   0     1T  0 disk
up-25           252:25   0     1T  0 disk
up-26           252:26   0     1T  0 disk
[root@erp1 ~]#
[root@erp1 dev]# for i in `cat /proc/partitions|awk '{print 

补充:

验证属组权限的,还有一个更快捷的方法——kfod。当我们创建磁盘组的时候,Oracle就是调用kfod命令来发现磁盘的,如果能够被kfod识别,那这块盘就能够被Oracle正确识别:

常用验证命令:

代码语言:javascript
复制
kfod status=true disks=all op=disks

3、查看ASM alert日志,是否还有更多信息:

和前台界面报错一样,ORA-15137,再没有更多信息。

现在就是新加的这块盘没有问题,不管是OS,还是Oracle,都能够正常识别这块盘。按理说是可以正常扩容成功的,但是ASM alert实例就是添加报错。

MOS

现在只有查询官方文档了。看有没有蛛丝马迹。

通过报错关键词查询(ORA-15137: The ASM cluster is in rolling patch state.)。

匹配文档: [OCI] Scale-up Failed in DBCS With ORA-15032: not all alterations performed, ORA-15137: The ASM cluster is in rolling patch state (Doc ID 2681040.1) 为两台计算节点补丁不一致,list of patches在计算节点1缺少一个, patch level值不一致。

1节点:

代码语言:javascript
复制
[grid@erp1 trace]$ /u01/app/19.3.0/grid/bin/kfod op=patches
---------------
List of Patches
===============
30869156
30869304
30894985
30898856
[grid@erp1 trace]$ /u01/app/19.3.0/grid/bin/kfod op=PATCHLVL
-------------------
Current Patch level
===================
3633918477
[grid@erp1 trace]$ /u01/app/19.3.0/grid/bin/crsctl query crs softwarepatch
Oracle Clusterware patch level on node erp1 is [3633918477].
[grid@erp1 trace]$ /u01/app/19.3.0/grid/bin/crsctl query crs activeversion -f
Oracle Clusterware active version on the cluster is [19.0.0.0.0]. The cluster upgrade state is [ROLLING PATCH]. The cluster active patch level is [724960844].
[grid@erp1 trace]$ /u01/app/19.3.0/grid/bin/asmcmd showclusterstate
In Rolling Patch
[grid@erp1 trace]$

2节点:

代码语言:javascript
复制
[grid@erp2 trace]$ /u01/app/19.3.0/grid/bin/kfod op=patches
---------------
List of Patches
===============
29517242
30869156
30869304
30894985
30898856
[grid@erp2 trace]$ /u01/app/19.3.0/grid/bin/kfod op=PATCHLVL
-------------------
Current Patch level
===================
1019803962
[grid@erp2 trace]$ /u01/app/19.3.0/grid/bin/crsctl query crs softwarepatch
Oracle Clusterware patch level on node erp2 is [1019803962].
[grid@erp2 trace]$ /u01/app/19.3.0/grid/bin/crsctl query crs activeversion -f
Oracle Clusterware active version on the cluster is [19.0.0.0.0]. The cluster upgrade state is [ROLLING PATCH]. The cluster active patch level is [724960844].
[grid@erp2 trace]$ /u01/app/19.3.0/grid/bin/asmcmd showclusterstate
In Rolling Patch

上述的state is [ROLLING PATCH],一般显示为state is [NORMAL]。此处已经异常。

可以看出两点:

  • 集群处于ROLLING PATCH模式;
  • 对比发现,crs softwarepatch补丁信息不一致,而且kfod工具的补丁,2节点比1节点多一个。

看起来是由于2个节点的补丁不一致,导致集群处于ROLLING PATCH模式。那为什么会有补丁信息不一样的情况?

因为我们打补丁的时候,是通过opatchauto自动打的,而且是2个节点一起打的。经询问,打补丁的过程没有报错。这个就比较奇怪了。打算提个sr咨询下原厂,因为未来还要大批量的打补丁,这将是个隐患。

补充

这种查看补丁的方式还是第一次用,以前常用的都是opatch lspatches和opatch lsinventory来查看节点的补丁信息,如下:

对比发现:两节点安装的RU是一致的。所以在此处,此方法查看补丁的方法是行不通的。

小结:通过命令和日志查询,发现在1月14日早9时,进行了udev绑定状态正常,进行了DATA磁盘组添加磁盘,报错失败。经过搜索查询,疑似为两台计算节点补丁不一致造成。目前数据库使用状态正常,管控应用使用状态正常。

解决

以下所有的操作都是在多余的补丁的那个节点操作的,即2节点操作:

1、停止2节点数据库:shutdown immediate

2、./rootcrs.sh -prepatch

3、 ./patchgen commit -rb 29757256 (29757256是节点二多余的那个补丁)

4、./rootcrs.sh -postpatch

执行完第三步会报错,按照MOS文档 2348013.1 处理

5、./rootcrs.sh -prepatch

6、./rootcrs.sh -postpatch

7、ASMCMD进去,showclusterstate,在检查patch状态,从rolling变为normal

至此,添加ASM磁盘正常。

问题原因

本次故障是因为安装补丁的时候,由于未知原因,导致kfod这个工具的补丁不一致,集群处于ROLLING PATCH模式,识别ASM磁盘都没有问题,但是会导致ASM扩容失败。

手动安装补丁,没有执行rootcrs.sh的脚本

今天在测试环境创建磁盘组时报错了,虽然不知道问题是怎样产生的,但是最后解决了,特此记录以下。

问题现象

create diskgroup xxxxx; ORA-15018: Diskgroup can not be created ORA-15137: cluster in rolling patch

问题原因

猜测是因为打19.4.2的补丁时不是用opatchauto打的,并且打的时候没有跑rootcrs.sh的脚本。

问题解决

如果下面命令查询2个节点命令不一致的话可以用下面的方法结决,可惜我的2个节点一致这个方法不行:

crsctl query crs softwarepatch crsctl stop rollingpatch

2个节点分别跑rootcrs.sh的脚本,问题得到解决:

/crs/install/rootcrs.sh -prepatch /rdbms/install/rootadd_rdbms.sh

If this is an Oracle Restart Home, as the root user execute:

/crs/install/rootcrs.sh -postpatch

参考:

[OCI] Scale-up Failed in DBCS With ORA-15032: not all alterations performed, ORA-15137: The ASM cluster is in rolling patch state (Doc ID 2681040.1)

Patching 12.2.0.1 Grid Infrastructure gives error CRS-6706: Oracle Clusterware Release Patch Level (‘748994161’) Does Not Match Software Patch Level (Doc ID 2348013.1)

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2021-09-22,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 数据和云 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 背景
  • 收集信息
  • MOS
  • 解决
  • 问题原因
  • 问题现象
  • 问题原因
  • 问题解决
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档