前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >浅谈exp/imp(下) (r5笔记第84天)

浅谈exp/imp(下) (r5笔记第84天)

作者头像
jeanron100
发布2018-03-16 11:16:47
7010
发布2018-03-16 11:16:47
举报
文章被收录于专栏:杨建荣的学习笔记

相关链接:浅谈exp/imp(上) (r5笔记第81天)

你可能 不了解的dump文件

在工作中,dump文件对于dba而言是再平常不过的文件了。不过因为dump文件是二进制文件,所以大家可能在平时使用中也不太关注,不过尽管如此,在导入dump文件的时候还是有很多的细节和技巧值得注意,可以避免一些不必要的问题。 如何查看dump文件的一些基本信息 当你拿到一个dump文件的时候,不能盲目导入,我们可以基于当前的dump文件作一些基本的检查。 比如我们可以查到dump文件导出的版本,时间,导出的用户。 尽管dump文件是二进制文件,但是我们还是可以使用strings来得到一些信息。

代码语言:javascript
复制
$ strings test.dmp|head -10 
iEXPORT:V11.02.00 
RUSERS 
8192 
Sun Dec 28 6:54:27 2014test.dmp 
#G#G 
#G#G 
-08:00 
BYTE 
UNUSED 
INTERPRETED 

根据上面的命令输出,我们得到了一些dump的基本信息,可以从第一行看出exp是基于11.2版本,第2行可以看出是基于用户模式导出的dump,如果是全库模式会显示为RENTIRE,表模式则为RTABLES,从第4行可以看出dump生成的时间戳等等。

如何得到dump中的表信息 对于dump文件,我们可以解析出含有的表名,可以尝试使用如下的方式来实现,使用strings,awk,sed结合可以很方便的完成这个功能。

代码语言:javascript
复制
$ strings test.dmp |grep "CREATE TABLE "|awk '{print $3}'|sed 's/"//g' 
BALL_DATA 
BIG_INSERT 
CLOB_TEST 
COUNTRY_LST 
CTEST 
DATA 
DATA2

对于数据量小的dump文件,这个方法非常有效,如果dump非常大,解析会稍稍有些慢,不过相比使用perl等方式解析,速度还是要快得多。 如何解析dump文件生成parfile

在上面的基础上,如果我们需要根据dump生成对应的parfile来做数据导入导出,可以使用如下的命令来解析dump生成parfile。

代码语言:javascript
复制
$ strings n1_ddl.dmp|grep "CREATE TABLE"|awk '{print $3}'|sed 's/"//g'|awk '{ if(FNR==1) print "tables="$1 ; else print ","$1}'
tables=BIG_INSERT
,CLOB_TEST
,DATA
,NEW_DATA
,OLD_DATA
,PAR_DATA
,RATED_EVENT
,SMALL_INSERT

parfile对于使用exp/imp如虎添翼,可以使数据导入导出更加规范,很多细节都可以在parfile中灵活定义,可以使得exp/imp可读性更强。

数据导入导出中的盲点

盲点1:需要考虑的外键影响 在导入dump文件的时候,外键也是一个很重要的因素,可能dump中含有一些表,有些表中存在外键,在数据迁移之类的项目中是很让人头疼的,你得基于外键考虑表的导入顺序,有些表得先导入,要不在数据插入的时候会报外键相关的ORA问题。 可以使用如下的脚本来做一个基本过滤,可以考虑在过滤条件中嵌入一个dump中表的清单,可以更加精准的处理相关的外键。可以使用如下的脚本来动态生成对应的脚本来禁用外键。

代码语言:javascript
复制
SELECT
      'ALTER TABLE '||TABLE_NAME||' DISABLE  CONSTRAINT '|| CONSTRAINT_NAME||';' FROM USER_CONSTRAINTS WHERE
       CONSTRAINT_TYPE='R' UNION SELECT 'ALTER TABLE '||UCA.TABLE_NAME||' DISABLE  CONSTRAINT '|| UCA.CONSTRAINT_NAME||';'
FROM
       USER_CONSTRAINTS UCA ,
       (SELECT  CONSTRAINT_NAME
          FROM  USER_CONSTRAINTS
          WHERE CONSTRAINT_TYPE IN ('P','U')
) tmp
WHERE UCA.CONSTRAINT_TYPE = 'R'
  AND tmp.constraint_name = UCA.R_CONSTRAINT_NAME ;

生成的语句类似这样的形式。

代码语言:javascript
复制
ALTER TABLE ADD_TARGET DISABLE  CONSTRAINT ADD_TARGET_1FK;

务必注意在disable constraint,在完成数据导入后,需要enable constraint的操作,就是把上面脚本中的disable改为enable即可。

盲点2:需要考虑的触发器影响 触发器在数据导入或者数据迁移中都会存在潜在的问题,如果你不了解应用中的触发器处理细节,就会发现在数据导入或者数据迁移的过程中,会莫名其妙多出来一部分数据,或者有些数据发生了变化。 一般来说,可以和开发做简单的确认,大多数的情况下都是需要把触发器做disable操作,然后在数据导入之后再启用。

可以采用如下的脚本:

代码语言:javascript
复制
SELECT
      'ALTER TRIGGER ' ||TRIGGER_NAME||' DISABLE ;'
FROM
       USER_TRIGGERS; 

个人在使用trigger的过程中碰到过一些问题,就是因为没有注意到trigger的影响,结果本来表中含有100万数据,需要导入20万,结果导入后,发现总数据条数为130万了,那多出来的10万数据就是触发器中的相关逻辑插入的数据。

盲点3:buffer size的影响 buffer size的设置在数据导入中也是很重要的,如果dump存在一个较大的分区表,很可能导入的过程中就会跑出buffer size不够的错误,给你的导入工作带来很多影响。 一般可以把buffer size设置的大一些,比如4M,9M都是不错的选择。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2015-06-30,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 杨建荣的学习笔记 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 你可能 不了解的dump文件
  • 数据导入导出中的盲点
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档