sqlldr批量导入导出数据测试(86天)

sqlldr是在处理大数据量的操作中建议采用的方式,它有许多性能想关的开关,能最大程度的减少redo,undo的生成,控制数据的处理方式(insert,append,replace,truncate) 因为项目需要,对比datapump性能还是不理想,所以还是希望采用sqlldr来做。个人做了简单的测试。 根据thomas kyte的介绍,并行执行路径加载时最快的方式,能够直接写只格式化的数据块,最大限度的减少redo,undo的生成。 先写了如下的脚本。可以动态的从某个用户的表中生成元数据。 sqlplus -s $1 <<EOF set pages 0 col object_name format a30 set linseize 10000 set feedback off set colsep ',' spool $2.lst select *from $2 ; spool off; EOF 运行后生成的数据大体如下。

[ora11g@rac1 sqlldr]$ ksh spooldata.sh n1/n1 t
    370753,     10205,KU$_DOMIDX_OBJNUM_VIEW        ,VIEW
    370754,     10207,KU$_OPTION_OBJNUM_T           ,TYPE
    370755,     10208,KU$_EXPREG                    ,VIEW
    370756,     10210,SYS_YOID0000010209$           ,TYPE
    370757,     10209,KU$_OPTION_OBJNUM_VIEW        ,VIEW
    370758,     10211,KU$_OPTION_VIEW_OBJNUM_VIEW   ,VIEW
    370759,     10212,KU$_MARKER_T                  ,TYPE
    370760,     10214,SYS_YOID0000010213$           ,TYPE
    370761,     10213,KU$_MARKER_VIEW               ,VIEW
    370762,     10215,KU$_TABPROP_VIEW              ,VIEW
    370763,     10216,KU$_PFHTABPROP_VIEW           ,VIEW
    370764,     10217,KU$_REFPARTTABPROP_VIEW       ,VIEW
    370765,     10218,KU$_MVPROP_VIEW               ,VIEW
    370766,     10219,KU$_MVLPROP_VIEW              ,VIEW
    370767,     10220,KU$_TTS_VIEW                  ,VIEW
    370768,     10221,KU$_TAB_TS_VIEW               ,VIEW
    370769,     10222,KU$_TTS_IND_VIEW              ,VIEW
    370770,     10223,KU$_IND_TS_VIEW               ,VIEW
    370771,     10224,KU$_CLU_TS_VIEW               ,VIEW

然后准备控制文件 sqlldr.ctl,把数据从t加载到tt里面去。 load data into table tt fields terminated by ',' (id,object_id,object_name,object_type) 尝试导入: [ora11g@rac1 sqlldr]$ sqlldr n1/n1 control=sqlldr.ctl data=t.lst SQL*Loader: Release 11.2.0.3.0 - Production on Tue May 27 08:09:25 2014 Copyright (c) 1982, 2011, Oracle and/or its affiliates. All rights reserved. 但是没有任何的反馈。 查看自动生成的sqlldr.log 里面有如下的错误。 Column Name Position Len Term Encl Datatype ------------------------------ ---------- ----- ---- ---- --------------------- ID FIRST * , CHARACTER OBJECT_ID NEXT * , CHARACTER OBJECT_NAME NEXT * , CHARACTER OBJECT_TYPE NEXT * , CHARACTER Record 1: Rejected - Error on table TT, column OBJECT_TYPE. Field in data file exceeds maximum length Record 2: Rejected - Error on table TT, column OBJECT_TYPE. Field in data file exceeds maximum length Record 3: Rejected - Error on table TT, column OBJECT_TYPE. Field in data file exceeds maximum length Record 4: Rejected - Error on table TT, column OBJECT_TYPE. Field in data file exceeds maximum length

尝试了好一会儿,最终发现时set linesize的时候长度设置的比较大,在根据逗号','来解析的时候,最后一个字段的长度就包含了剩余的空格,最终加载的时候就会发现它的长度太大了。已经超出了表定义的长度。 这种情况,我总不能一个一个指定长度吧。 这时候想到trimspool的功能,尝试果然奏效。 spooldata.sh的脚本内容如下: sqlplus -s $1 <<EOF set pages 0 col object_name format a30 set linesize 10000 set trimspool on set feedback off set colsep ',' spool $2.lst select *from $2 where rownum<20 ; spool off; EOF 再次尝试导入,就没有问题了。 [ora11g@rac1 sqlldr]$ sqlldr n1/n1 control=sqlldr.ctl data=t.lst SQL*Loader: Release 11.2.0.3.0 - Production on Tue May 27 08:14:44 2014 Copyright (c) 1982, 2011, Oracle and/or its affiliates. All rights reserved. Commit point reached - logical record count 19 到此为止,来开始看看direct方式到底有多大的性能提升 对于将近80万的数据量测试情况如下。 没有采用direct方式的时候,会有一定的频度(默认50条一次)来加载数据,耗时79秒,基本一秒一万条 Commit point reached - logical record count 793480 Commit point reached - logical record count 793544 Commit point reached - logical record count 793608 Commit point reached - logical record count 793672 Commit point reached - logical record count 793736 Commit point reached - logical record count 793800 Commit point reached - logical record count 793864 Commit point reached - logical record count 793928 Commit point reached - logical record count 793992 Commit point reached - logical record count 794056 Commit point reached - logical record count 794120 Commit point reached - logical record count 794184 Commit point reached - logical record count 794248 Commit point reached - logical record count 794312 Commit point reached - logical record count 794369 但是使用了direct=true的时候,速度明显提升,而且输出也很简单,就下面一行。耗时8秒,基本一秒10万条数据。 8s [ora11g@rac1 sqlldr]$ sqlldr n1/n1 direct=true control=sqlldr.ctl data=t.lst SQL*Loader: Release 11.2.0.3.0 - Production on Tue May 27 07:56:31 2014 Copyright (c) 1982, 2011, Oracle and/or its affiliates. All rights reserved. Load completed - logical record count 794369.

原文发布于微信公众号 - 杨建荣的学习笔记(jianrong-notes)

原文发表时间:2014-05-28

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏顶级程序员

为什么忘记 commit 也会造成 select 查询的性能问题

作者:潇湘隐者 www.cnblogs.com/kerrycode/p/5836015.html 今天遇到一个很有意思的问题,一个开发人员反馈在测试服务器OR...

3078
来自专栏星汉技术

HIVE中的表以及语法

6354
来自专栏杨建荣的学习笔记

undo retention的思考(一)

最近有个网友咨询我一个问题,是关于undo_retention的,对于这个参数没有过多关注,只是知道需要设置undo_retention搭配使用undotabl...

4785
来自专栏程序猿

SQL sever 触发器

一: 触发器 是一种特殊的存储过程﹐它不能被显式地调用﹐而是在往表中插入记录﹑更新 记录或者删除记录时被自动地激活。所以触发器可以用来实现对表实施复杂的完整性...

3577
来自专栏性能与架构

如何有效使用Mysql的Query Cache

须要根据Query Cache失效机制来判断哪些表适合使用Query哪些表不适合。 由于Query Cache的失效主要是因为Query所依赖的Table数据发...

3714
来自专栏逸鹏说道

程序猿是如何解决SQLServer占CPU100%的

文章目录 遇到的问题 使用SQLServer Profiler监控数据库 SQL1:查找最新的30条告警事件 SQL2:获取当前的总报警记录数 有哪些SQL语句...

3798
来自专栏芋道源码1024

数据库中间件 MyCAT源码分析:【单库单表】插入

本文主要基于 MyCAT 1.6.5 正式版 1. 概述 2. 接收请求,解析 SQL 3. 获得路由结果 4. 获得 MySQL 连接,执行 SQL 5. 响...

52612
来自专栏数据存储

十分钟包会MySQL插件开发

请看下面的MySQL UDF插件模版,通过C执行shell语句。所以只要替换shell语句的位置,保存并编译。duang的一下,你的MySQL插件就成功出炉。

4388
来自专栏乐沙弥的世界

Oracle RAC 环境下的 v$log v$logfile

      通常情况下,在Oracle RAC 环境中,v$视图可查询到你所连接实例的相关信息,而gv$视图则包含所有实例的信息。然而在RAC环境中,当我们查询...

2332
来自专栏杨建荣的学习笔记

数据清理的遗留问题处理(二)(r6笔记第91天)

之前尝试了历史数据的清理,在逻辑层面清除了数据,可以参见 http://blog.itpub.net/23718752/viewspace-1814000/ 但...

3075

扫码关注云+社区

领取腾讯云代金券