对分区表导入导出的水平,垂直切分(r2第22天)

在工作中有时候碰到一些分区表,业务数据量很大,可能几百G,上T的规模,而且做数据的导入导出的时候,会感觉到exp/expdp的时候生成的dump文件太大了,做导入的时候也是很重的负担。比如500G的dump,你在使用imp做导入的时候,别无选择,只能看着日志里partition里的数据一个一个被导入。impdp可能稍微好点,还能指定个并行,但是问题又来了,一个500G的dump。impdp是在最后才做commit。对于数据空间和Undo,cpu资源都是挑战。 分区表有一个地方和普通表不同,对于每个分区可以单独做dml,不会影响其他的分区,当然了,你得指定分区名。 基于以上的情况,我写了一个脚本来完成exp/expdp,把一个很大的分区表按照分区生成对应的dump文件,如果分区有100个分区,那么就会有100个dump文件。在数据导入的时候,也可以分区导入,以分区的形式单独做导入,相当于把一个大的事物分成很多小的部分。可以看做是垂直切分。 比如说表big_table有100个分区,生成了100个dump,导出的时候一般比较快,导入的时候问题就来了。如果开启100个单独的进程去导入,系统负载不一定能接受,Undo的大小肯定不能保证这么多的大事务,很可能会有Undo空间的问题。 这个时候可以考虑开启几个并行的进程来做数据导入,比如开启5个进程来做数据导入,每个进程包含20个分区,这样会对系统的负载减轻不少,同时也能提高速度。可以看做是水平切分

parallel_no=$5 
target_schema=$4 
for i in {1..${parallel_no}} 
do 
sqlplus -s $1 <<EOF 
set linesize 150 
set pages 0 
set feedback off 
set trimspool  on 
spool $2_partition_parallel_$i.par_temp 
select 'tables=' from dual; 
spool off; 
spool $2_partition_parallel_$i.par_temp append 
 select table_name||':'||partition_name||',' from  ( 
 select rownum,mod(rownum,${parallel_no})+1  parallel_no,table_name,partition_name,num_rows from user_tab_partitions where  table_name=upper('$2') order by num_rows desc  nulls last 
 ) 
where parallel_no=$i; 
spool off; 
spool $2_partition_parallel_$i.par_temp2 
select 'tables=' from dual; 
spool off; 
spool $2_partition_parallel_$i.par_temp2 append 
 select  'PRDAPPO'||'.'||table_name||':'||partition_name||',' from ( 
 select rownum,mod(rownum,${parallel_no})+1  parallel_no,table_name,partition_name,num_rows from user_tab_partitions where  table_name=upper('$2') order by num_rows desc  nulls last 
 ) 
 where parallel_no=$i; 
spool off; 
EOF 
sed -e '/^$/d' -e '$s/.$//'   $2_partition_parallel_$i.par_temp>$2_partition_parallel_$i.par_imp 
rm $2_partition_parallel_$i.par_temp 
sed -e '/^$/d' -e '$s/.$//'   $2_partition_parallel_$i.par_temp2>$2_partition_parallel_$i.par_impdp 
rm $2_partition_parallel_$i.par_temp2 
echo exp $1 file=par${i}_$2.dmp log=par${i}_$2_exp.log   statistics=none grants=n constraints=n indexes=n   parfile=$2_partition_parallel_$i.par_imp buffer=9102000  "&" >>  $2_partition_parallel_export.sh 
echo imp $1 file=par${i}_$2.dmp log=par${i}_$2_imp.log   statistics=none grants=n constraints=n indexes=n   parfile=$2_partition_parallel_$i.par_imp buffer=91020000 ignore=Y commit=y  "&" >> $2_partition_parallel_import.sh 
echo expdp $1 directory=memo_dir dumpfile=par${i}_$2.dmp  logfile=par${i}_$2_expdp.log parfile=$2_partition_parallel_$i.par_imp   exclude=statistics,constraint,ref_constraint,index,comment,grant  "  &"  >> $2_partition_parallel_expdp.sh & 
echo "nohup " impdp $1 directory=memo_dir  dumpfile=par${i}_$2.dmp parallel=2 include=table_data  logfile=par${i}_$2_impdp.log parfile=$2_partition_parallel_$i.par_impdp  TABLE_EXISTS_ACTION=append REMAP_SCHEMA=prdappo:MIG_TEST  DATA_OPTIONS=SKIP_CONSTRAINT_ERRORS   "  &" >>  $2_partition_parallel_impdp.sh & 

生成的parfile文件和parallel导入导出脚本如下:

-rw-r--r-- 1 testuser1  dba  1231 Jun 19 14:16 big_table_partition_parallel_1.par_imp
-rw-r--r-- 1  testuser1 dba  1687 Jun 19 14:16  big_table_partition_parallel_1.par_impdp
-rw-r--r-- 1 testuser1 dba  1253 Jun  19 14:16 big_table_partition_parallel_2.par_imp
-rw-r--r-- 1 testuser1 dba   1717 Jun 19 14:16 big_table_partition_parallel_2.par_impdp
-rw-r--r-- 1  testuser1 dba  1255 Jun 19 14:16  big_table_partition_parallel_3.par_imp
-rw-r--r-- 1 testuser1 dba  1719 Jun  19 14:16 big_table_partition_parallel_3.par_impdp
-rw-r--r-- 1 testuser1 dba   1255 Jun 19 14:16 big_table_partition_parallel_4.par_imp
-rw-r--r-- 1  testuser1 dba  1719 Jun 19 14:16  big_table_partition_parallel_4.par_impdp
-rw-r--r-- 1 testuser1 dba  1273 Jun  19 14:16 big_table_partition_parallel_5.par_imp
-rw-r--r-- 1 testuser1 dba   1737 Jun 19 14:16 big_table_partition_parallel_5.par_impdp
-rw-r--r-- 1  testuser1 dba  2150 Jun 19 14:16  big_table_partition_parallel_expdp.sh
-rw-r--r-- 1 testuser1 dba   905 Jun 19  14:16 big_table_partition_parallel_export.sh
-rw-r--r-- 1 testuser1 dba  1410  Jun 19 14:16 big_table_partition_parallel_impdp.sh
-rw-r--r-- 1 testuser1  dba  1010 Jun 19 15:08 big_table_partition_parallel_import.sh
-rw-r--r-- 1  testuser1 dba  5609 Jun 19 10:52 par1_big_table_expdp.log
-rw-r--r-- 1  testuser1 dba  5120 Jun 19 14:36 par1_big_table_exp.log
-rw-r--r-- 1  testuser1 dba     0 Jun 19 15:10 par1_big_table_imp.log
-rw-r--r-- 1  testuser1 dba  5688 Jun 19 10:52 par2_big_table_expdp.log
-rw-r--r-- 1  testuser1 dba  5200 Jun 19 14:37 par2_big_table_exp.log
-rw-r--r-- 1  testuser1 dba     0 Jun 19 15:10 par2_big_table_imp.log
-rw-r--r-- 1  testuser1 dba  5688 Jun 19 10:53 par3_big_table_expdp.log
-rw-r--r-- 1  testuser1 dba  5200 Jun 19 14:46 par3_big_table_exp.log
-rw-r--r-- 1  testuser1 dba     0 Jun 19 15:10 par3_big_table_imp.log
-rw-r--r-- 1  testuser1 dba  5688 Jun 19 10:53 par4_big_table_expdp.log
-rw-r--r-- 1  testuser1 dba  5200 Jun 19 14:38 par4_big_table_exp.log
-rw-r--r-- 1  testuser1 dba     0 Jun 19 15:10 par4_big_table_imp.log
-rw-r--r-- 1  testuser1 dba  5698 Jun 19 10:52 par5_big_table_expdp.log
-rw-r--r-- 1  testuser1 dba  5200 Jun 19 14:37 par5_big_table_exp.log
-rw-r--r-- 1  testuser1 dba     0 Jun 19 15:10 par5_big_table_imp.log 

原文发布于微信公众号 - 杨建荣的学习笔记(jianrong-notes)

原文发表时间:2014-07-03

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏编程坑太多

『中级篇』docker企业版本地安装之UCP(57)

PS:详细不介绍,就是一个图形化的,没啥介绍的。下次在阿里平台是建立下用云端玩玩。

572
来自专栏沈唁志

宝塔面板Mysql 5.6版本无法正常启动的解决方法

朋友找我的时候说的是 Mysql 启动不了,看他发的截图是宝塔面板,就要来了面板信息去看了一下

1592
来自专栏Python爬虫与数据挖掘

如何在Centos官网下载所需版本的Centos——靠谱的Centos下载教程

很多小伙伴不知道对应版本的Centos怎么下载,最近小编整理了一份Centos详细的下载教程,希望小伙伴们不在为下不到对应版本的Centos而苦...

932
来自专栏生信技能树

R包终极解决方案

写在前面: 在如何通过Google来使用ggplot2可视化这篇文章中,我们曾经介绍过R语言在生物信息学中的重要性。 这篇文章也激发了很多小伙伴学习的热情。学习...

3377
来自专栏PPV课数据科学社区

工具 | 大数据系列(5)——Hadoop集群MYSQL的安装

文|指尖流淌 前言 有一段时间没写文章了,最近事情挺多的,现在咱们回归正题,经过前面四篇文章的介绍,已经通过VMware安装了Hadoop的集群环境,相关的两款...

2886
来自专栏格子的个人博客

CentOS7下安装Mesos教程

Mesos是根据Linux内核相同原则而创建的,而不同点仅是在于抽象的层面。Mesos内核运行在每一个机器上,同时通过 API 为各种应用提供跨数据中心和云的资...

822
来自专栏程序员的SOD蜜

CentOS 7 安装Mono 和 MonoDevelop

【原文来自:http://www.linuxidc.com/Linux/2015-01/112350.htm】 好几年前安装过mono,后来一直没有再用过。最近...

28410
来自专栏魏艾斯博客www.vpsss.net

宝塔 Linux 面板 4.X 版本安装教程

1534
来自专栏河湾欢儿的专栏

常用的dos命令

672
来自专栏漏斗社区

Android逆向之动态分析so篇

本期,斗哥将给大家带来Android逆向的动态分析,简述Android动态分析环境配置与IDA调试so文件。

913

扫码关注云+社区