达梦数据库利用rowid批量插入备份大表

生产库通常有这样的需求,比如表T数据量很大,需要临时做个备份,然后对该表进行dml操作。

普通的备份表sql如下:

create table T_bak as select * from T;

但是T表数据量很大的时候,这样做会造成回滚段很大,并且很容易出现“用户数据被purge”的错误导致失败。

可以利用rowid,考虑批量提交,脚本如下:

-----先创建空表

 create table T_bak as select * from T where 1=2;

-----批量插入数据

-----2600万数据5分钟完成

 declare
   v_max_rowid bigint;
   v_count int;
   v_batch_rows int:=100000;
 begin
  select max(rowid) into v_max_rowid  from T ;
  v_count := v_max_rowid/v_batch_rows+1;
  for i in 1..v_count loop
    insert into T_bak
    select * from T where rowid>(i-1)*v_batch_rows and rowid<=i*v_batch_rows;
    commit;
  end loop;
 end;
发布了56 篇原创文章 · 获赞 5 · 访问量 9347

猜你喜欢

转载自blog.csdn.net/fengxiaozhenjay/article/details/103396594
今日推荐