表空间无法扩充的方法

最近接手一个项目,讯飞要导一些表去我的中间库,但是询问后一个单表为40多g,导入数据库时一直使用导入本地oracle数据库的方法,即根据dmp文件大小设置一个数据文件,设定表空间最大值。

--创建表空间,数据文件为'D:\APP\ADMINISTRATOR\ORADATA\XYSHARE\SGSHARE.DBF',初始大小50M,递增10M,最大递增到2G
create tablespace sgshare datafile 'D:\APP\ADMINISTRATOR\ORADATA\XYSHARE\SGSHARE.DBF'
  size 50M
  autoextend on next 10M
  maxsize 2048M;

生产考虑的时候,表会一直增加,所以开放表空间大小一直扩充的权限。

--改变用户表空间容量限制,不做限制
ALTER USER ankangreli QUOTA UNLIMITED ON ankangrelir_data;

表空间数据文件容量与DB_BLOCK_SIZE有关,在初始建库时,DB_BLOCK_SIZE要根据实际需要,设置为 4K、8K、16K、32K、64K等几种大小,ORACLE的物理文件最大只允许4194304个数据块(由操作系统决定),表空间数据文件的最大值为 4194304×DB_BLOCK_SIZE/1024M。

表空间增大的语句,前几个博客中都有写到,但是,单个dmp文件有增大的限制,当到了最大的时候,就无法增加,就会报错。

截取的更多DB_BLOCK_SIZE作用如下:

  • DB_BLOCK_SIZE作为数据库的最小操作单位,是在创建数据库的时候指定的,在创建完数据库之后便不可修改。要修改DB_BLOCK_SIZE,需要重建数据库。一般可以将数据EXP出来,然后重建数据库,指定新的DB_BLOCK_SIZE,然后再将数据IMP进数据库。
  • DB_BLOCK_SIZE一般设置为操作系统块的倍数,即2K,4K,8K,16K或32K,但它的大小一般受数据库用途的影响。对于联机事务,其特点是事务量大,但每个事务处理的数据量小,所以DB_BLOCK_SIZE设置小点就足够了,一般为4K或者8K,设置太大话一次读出的数据有部分是没用的,会拖慢数据库的读写时间,同时增加无必要的IO操作。而对于数据仓库和ERP方面的应用,每个事务处理的数据量很大,所以DB_BLOCK_SIZE一般设置得比较大,一般为8K,16K或者32K,此时如果DB_BLOCK_SIZE小的话,那么I/O自然就多,消耗太大。
  • 大一点的DB_BLOCK_SIZE对索引的性能有一定的提高。因为DB_BLOCK_SIZE比较大的话,一个DB_BLOCK一次能够索引的行数就比较多。
  • 对于行比较大的话,比如一个DB_BLOCK放不下一行,数据库在读取数据的时候就需要进行行链接,从而影响读取性能。此时DB_BLOCK_SIZE大一点的话就可以避免这种情况的发生。

回到该问题,通过上面的信息我们得出:在本机单个表空间文件大小超过32G时,表空间容量就达到了最大值,数据库就不能继续增加信息了,那么该采取什么措施呢?

第一种办法:多个数据文件累加

将表空间存储为多个数据文件,每个文件不大于32GB(精确的值为32768M)

一个不够用那就在加一个,但是,讯飞导过来的一个单表为40G,所以这个扑该。

create tablespace sgshare 
logging  
datafile 'D:\APP\ADMINISTRATOR\ORADATA\XYSHARE\SGSHARE.DBF' 
size 50m  
autoextend on  
next 50m maxsize 32767m  
extent management local; 

 --为表空间增加数据文件
alter tablespace sgshare 
add datafile 'D:\APP\ADMINISTRATOR\ORADATA\XYSHARE\SGSHARE2.DBF' size 50m 
autoextend on next 50m maxsize 32767m;

第二种方法,修改db_block_size

但是这个我初略理解意思,但是看别人的回答,貌似都不可以解决掉

根据oracle的算法,我们很容易想到这个解决方法。数目衡定,但是db_block_size可以更改(db_block_size的最大大小为32KB)。如果把db_block_size扩大到32KB,那么我们的系统就可以支持单个数据文件最大128GB。

默认一般都为32个G吧,我之前就是当时得知这个消息的时候,我想把表空间扩展到40多g,好存储讯飞导过来的表,但是,表空间扩大到30多g的时候就已经报错了。

这个方案听起来好像很迷人,但是实际上并不是那么回事。因为要修改db_block_size并不是很容易的事。因为这个db_block_size在创建实例的时候就要指定。而且不能通过简单修改参数来指定db_block_size。db_block_size的默认值为8192 bytes,是不能被用户修改的。因为db_block_size对应于一个实例,所以意味着在数据库创建(建库)以后是不能修改的,如需修改,可行的方式是重新建库并把原库的数据export到新库。当然最好的方式是在建数据库之前就规划好,一般如果是OLTP系统,可以保持默认值;OLAP环境可以考虑适当调大。

3. 创建bigfile表空间

重头来了,我就是用这种方法解决了我的燃眉之急。

在oracle11g中引进了bigfile表空间,他充分利用了64位CPU的寻址能力,使oracle可以管理的数据文件总量达到8EB。单个数据文件的大小达到128TB,即使默认8K的db_block_size也达到了32TB。

但是唯一注意的一点是:使用bigfile表空间,它只能支持一个数据文件。也就是说这个文件的最大大小就是表空间最大大小,你不可能通过增加数据文件来扩大该表空间的大小。不能像方法一可以增加额外的数据文件。

下面是我使用这种方法解决我问题的语句:

--一、sqlplus登录sys或者system 建立Oracle Directory目录

 create directory dp_qianyi as 'D:\qianyi';  --同时应该在相应位置建立实际目录
--删除  drop directory dp_qianyi;
--授权  grant read,write on directory dp_qianyi to system scott;  

--二、一 导出 sgshare用户下的模式

--1、sqlplus登录sys或者system给sgshare授Directory目录权限
grant read,write on directory dp_qianyi to sgshare;
--2、退出sqlplus登录,在cmd模式下,执行expdp导出语句
expdp system/xyshare@xyshare directory=dp_qianyi schemas=sgshare dumpfile=qy_sgshare20181027.dmp logfile=qy_sgshare20181027.log
--3、导出结束后,将导出的文件压缩传送到要导入的数据库服务器上  

--三、删除原有数据库用户和表空间

--删除用户
drop user sgshare cascade;
--删除表空间
drop tablespace 'D:\APP\ADMINISTRATOR\ORADATA\XYSHARE\SGSHARE.DBF' including contents and datafiles cascade constraint;

删除表空间的时候,貌似发生了些问题,这个原本的dbf并没有给我关闭,我是在services里面关闭了oracle的服务,然后在去文件中将表空间的数据文件删除掉,。

--四、在目的地数据库服务器上建立默认表空间和临时表空间 、同名用户
     --4.1在原数据库中查询数据库所有用户信息dba_users(可以查询所要导入的用户对应的默认表空间和临时表空间)

select username,default_tablespace,t.* from dba_users t

查看原来的表空间是否被删除。

  --4.2新建用户相应表空间和临时表空间

    create bigfile tablespace sgshare datafile 'D:\APP\ADMINISTRATOR\ORADATA\XYSHARE\SGSHARE.DBF'
    size 102400m autoextend on next 128m maxsize 204800m extent management local;  --创建表空间  
    
    create temporary tablespace XYSHARE tempfile 'D:\APP\ADMINISTRATOR\ORADATA\XYSHARE\SGSHARE2.DBF'
    size 50M autoextend ON next 10M maxsize 100M;   --创建临时表空间

临时表空间我没有创建。

----- 再次授权:     
    grant read,write on directory dp_qianyi to system

  --五、导入xyshare用户下的模式

impdp system/xyshare@xyshare directory=dp_qianyi  dumpfile=qy_sgshare20181027.dmp logfile=qy_sgshare20181027.log

之前的信息都会存在压缩下的文件,所以表空间账号密码等都没有变。这样就可以正常使用了,以后再导入多大的表都不用担心了。当时创表空间的时候自己觉得设置为多大。还要考虑你的dmp存在的那个磁盘中的容量为多大。

猜你喜欢

转载自www.cnblogs.com/jianshuai520/p/9881071.html