oracle 高效插入大量数据

在很多时候,我们会需要对一个表进行插入大量的数据,并且希望在尽可能短的时间内完成该工作,这里,和大家分享下我平时在做大量数据insert的一些经验。

前提:在做insert数据之前,如果是非生产环境,请将表的索引和约束去掉,待insert完成后再建索引和约束。

insertintotab1select*fromtab2;commit;

这是最基础的insert语句,我们把tab2表中的数据insert到tab1表中。根据经验,千万级的数据可在1小时内完成。但是该方法产生的arch会非常快,需要关注归档的产生量,及时启动备份软件,避免arch目录撑爆。

altertabletab1nologging;

insert/*+append*/intotab1select*fromtab2;

commit;altertabletab1logging;

该方法会使得产生arch大大减少,并且在一定程度上提高时间,根据经验,千万级的数据可在45分钟内完成。但是请注意,该方法适合单进程的串行方式,如果当有多个进程同时运行时,后发起的进程会有enqueue的等待。注意此方法千万不能dataguard上用,不过要是在database已经forcelogging那也是没有问题的。

insertintotab1select/*+parallel*/*fromtab2;commit;

对于select之后的语句是全表扫描的情况,我们可以加parallel的hint来提高其并发,这里需要注意的是最大并发度受到初始化参数parallel_max_servers的限制,并发的进程可以通过v$px_session查看,或者ps-ef|grepora_p查看。

altersessionenableparalleldml;

insert/*+parallel*/intotab1select*fromtab2;commit;

与方法2相反,并发的insert,尚未比较和方法2哪个效率更高(偶估计是方法2快),有测试过的朋友欢迎补充。

insertintotab1select*fromtab2partition(p1);

insertintotab1select*fromtab2partition(p2);

insertintotab1select*fromtab2partition(p3);

insertintotab1select*fromtab2partition(p4);

对于分区表可以利用tab1进行多个进程的并发insert,分区越多,可以启动的进程越多。我曾经试过insert2.6亿行记录的一个表,8个分区,8个进程,如果用方法2,单个进程完成可能要40分钟,但是由于是有8个分区8个进程,后发进程有enqueue,所以因此需要的时间为40分钟×8;但是如果用方法5,虽然单个进程需要110分钟,但是由于能够并发进程执行,所以总共需要的时间就约为110分钟了。

DECLARETYPEdtarrayISTABLEOFVARCHAR2(20)

INDEXBYBINARY_INTEGER;

v_col1dtarray;v_col2dtarray;v_col3dtarray;

BEGINSELECTcol1,col2,col3BULKCOLLECTINTOv_col1,v_col2,v_col3

FROMtab2;

FORALLiIN1..v_col1.COUNTinsertintotab1

WHEREtab1.col1=v_col1;

END;

用批量绑定(bulkbinding)的方式。当循环执行一个绑定变量的sql语句时候,在PL/SQL和SQL引擎(engines)中,会发生大量的上下文切换(contextswitches)。使用bulkbinding,能将数据批量的从plsql引擎传到sql引擎,从而减少上下文切换过程,提升效率。该方法比较适合于在线处理,不必停机。

sqlplus-suser/pwd<runlog.txtsetcopycommit2;

setarraysize5000;

copyfromuser/pwd@sid-touser/pwd@sid-inserttab1using

select*fromtab2;exitEOF

用copy的方法进行插入,注意此处insert没有into关键字。该方法的好处是可以设置copycommit和arrarysize来一起控制commit的频率,上面的方法是每10000行commit一次。

相关推荐