物化视图全量刷新的简单测试(63天)

关于物化视图的刷新,如果数据的变化比较大采用了全量刷新的时候,会将现有表里的数据都清空然后放入新的数据,整个过程有点类似delete,insert的感觉,但是刷新后表的高水位线还是会保持不变,效果类似于truncate,insert. 对于堆表来说,在重要的一些表上做truncate简直就是灾难,如果一个表访问频繁,做了truncate之后,在插入数据的过程中,如果访问该表,数据都是0条,这就会带来一些高可用性的问题来,如果采用一个事务,使用delete,insert的方式,那高水位线的问题还是得不到解决,可能在高版本中可以使用shrink之类的方式来做,但是还是有一定的影响。 创建一个物化视图,数据量在40万左右。

create materialized view test_mv tablespace pool_data as select *from test;

使用如下的shell脚本在另一个窗口中执行,来查看物化视图中的数据条数。

while true
do
sqlplus -s n1/n1 <<EOF
set timing on
set pages 0
set feedback off
select count(*)  from test_mv;
EOF
done

插入数据之后,反复刷新,让刷新的时间基本稳定下来。

SQL> set time on
08:37:52 SQL>  exec dbms_mview.refresh('TEST_MV','C');
PL/SQL procedure successfully completed.
Elapsed: 00:00:50.27

插入一条数据,然后采用全量刷新

08:38:50 SQL> insert into test select *from test where rownum<2;
1 row created.
Elapsed: 00:00:00.10
08:39:44 SQL> commit;
Commit complete.

18:20:33 SQL> exec dbms_mview.refresh('TEST_MV','C');
PL/SQL procedure successfully completed.
Elapsed: 00:00:24.62
18:21:12 SQL> exec dbms_mview.refresh('TEST_MV','C');
PL/SQL procedure successfully completed.
Elapsed: 00:00:26.05

时间基本稳定在20多秒的样子,然后开始测试,在另外一个窗口中执行shell脚本,不停的会去查物化视图里的数据,根据oracle的读一致性,基本都会从undo中读取数据 可以看到刷新的时间开始延长,但是数据条数没有任何变化。 18:24:48 SQL> exec dbms_mview.refresh('TEST_MV','C'); PL/SQL procedure successfully completed. Elapsed: 00:00:37.49 以下是shell脚本执行时的日志,可以看到数据条数没有任何变化,也算是高可用性的一种体现吧,不过在特定的场景中可以考虑一下。

411425
Elapsed: 00:00:03.76
    411425
Elapsed: 00:00:01.01
    411425
Elapsed: 00:00:01.03
    411425
Elapsed: 00:00:01.07
    411425
Elapsed: 00:00:01.87
    411425
Elapsed: 00:00:00.76
    411425
Elapsed: 00:00:03.60
    411425
Elapsed: 00:00:03.00
    411425
Elapsed: 00:00:04.28
    411425
Elapsed: 00:00:05.06
    411425
Elapsed: 00:00:08.61
    411425
Elapsed: 00:00:02.44
    411425
Elapsed: 00:00:00.04
    411425
Elapsed: 00:00:00.03
    411425
Elapsed: 00:00:00.04
    411425
Elapsed: 00:00:00.04
    411425
Elapsed: 00:00:00.04
    411425
Elapsed: 00:00:00.04
    411425
Elapsed: 00:00:00.04
    411425
Elapsed: 00:00:00.04
    411425
Elapsed: 00:00:00.04
    411425
Elapsed: 00:00:00.04
    411425
Elapsed: 00:00:00.04
    411425
Elapsed: 00:00:00.03
    411425
Elapsed: 00:00:00.04
    411425
Elapsed: 00:00:00.04
    411425
Elapsed: 00:00:00.03
    411425
Elapsed: 00:00:00.04
    411425
Elapsed: 00:00:00.03
    411425
Elapsed: 00:00:00.04
    411425
Elapsed: 00:00:00.04
    411425
Elapsed: 00:00:00.04
    411425
Elapsed: 00:00:00.03
    411425
Elapsed: 00:00:00.04
    411425
Elapsed: 00:00:00.04
    411425
Elapsed: 00:00:00.04
    411425
Elapsed: 00:00:00.03

原文发布于微信公众号 - 杨建荣的学习笔记(jianrong-notes)

原文发表时间:2014-05-05

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏码匠的流水账

聊聊jesque的WorkerImpl与WorkerPool

Resque是一个使用redis来创建后台任务的ruby组件。而jesque是其java版本。通常用来做延时队列。

471
来自专栏岑玉海

hbase源码系列(三)Client如何找到正确的Region Server

  客户端在进行put、delete、get等操作的时候,它都需要数据到底存在哪个Region Server上面,这个定位的操作是通过HConnection.l...

41411
来自专栏杨建荣的学习笔记

redo日志文件学习(22天)

关于redo日志文件,今天因为要做redo日志的在线迁移,所以特意做了个简单的总结。 1. 如果要把redo的切换信息显示到alert日志中,需要设置个参数。...

3345
来自专栏何俊林

LeakCanary的原理,你知道么?

1262
来自专栏Kubernetes

Linux kernel Namespace源码分析

学习一下linux kernel namespace的代码还是很有必要的,让你对docker容器的namespace隔离有更深的认识。我的源码分析,是基于Lin...

4168
来自专栏分布式系统进阶

Kafka源码分析-网络层-2

这里面最主要的就是accept(key, processors(currentProcessor)) (4) accept: 设置新连接socket的参数后交...

711
来自专栏程序猿

Oracle_12C的新特性

这里我们来领略下Tom眼中的12个特性增强: ? #1 Even better PL/SQL from SQL, 直接在SQL中嵌入PL/SQL对象并运行,猜测...

2819
来自专栏浪淘沙

SparkStreaming_Kafka_Redis整合

973
来自专栏杨建荣的学习笔记

关于update语句的性能测试(62天)

今天对表的update进行了性能测试,收获不小。在linux 64位的环境中测试, 数据量是按照40万左右的标准进行的测试。 SQL> select count...

2707
来自专栏Spark生态圈

[spark streaming] ReceiverTracker 数据产生与存储

在Spark Streaming里,总体负责任务的动态调度是JobScheduler,而JobScheduler有两个很重要的成员:JobGenerator 和...

761

扫码关注云+社区