Hibernate批量插入数据

    使用Hibernate将大量的记录(如100000条)插入到数据库时,很自然的的一种做法可能是:

  Session session = sessionFactory.openSession();
  Transaction tx = session.beginTransaction();
  for ( int i=0; i<100000; i++ ) {
       Customer customer = new Customer(.....);
       session.save(customer);
  }
  tx.commit();
  session.close();

       这段程序大概运行到 50 000 条记录左右会失败并抛出 内存溢出异常(OutOfMemoryException) 。 这是因为 Hibernate 把所有新插入的 客户(Customer)实例在 session级别的缓存区进行了缓存的缘故。

       如果你要执行批量处理并且想要达到一个理想的性能, 那么使用JDBC的批量(batching)功能是一个可行的选择。将JDBC的批量抓取数量(batch size)参数设置到一个合适值 (比如,10-50之间):

hibernate.jdbc.batch_size 20

注意,假若你使用了identiy标识符生成器,Hibernate在JDBC级别透明的关闭插入语句的批量执行。

       你也可能想在执行批量处理时关闭二级缓存:hibernate.cache.use_second_level_cache false

但是,这不是绝对必须的,因为我们可以显式设置CacheMode来关闭与二级缓存的交互。

 批量插入(Batch inserts)

       如果要将很多对象持久化,你必须通过经常的调用 flush() 以及稍后调用 clear() 来控制第一级缓存的大小。

  Session session = sessionFactory.openSession();
  Transaction tx = session.beginTransaction();
  for ( int i=0; i<100000; i++ ) {
        Customer customer = new Customer(.....);
        session.save(customer);
        if ( i % 20 == 0 ) {  //20,与JDBC批量设置相同

             //将本批插入的对象立即写入数据库并释放内存
            session.flush();
            session.clear();
        }
  }
  tx.commit();
  session.close();

猜你喜欢

转载自surongly.iteye.com/blog/2021480