Hibernate 批量插入和分页查询

批量插入:
使用 Hibernate 将 100,000 条记录插入到数据库的一个很天真的做法可能是这样的:

Session session = sessionFactory.openSession();
Transaction tx = session.beginTransaction();
for ( int i=0; i<100000; i++ ) {
    Customer customer = new Customer(.....);
    session.save(customer);
}
tx.commit();
session.close();

这段程序大概运行到 50,000 条记录左右会失败并抛出内存溢出异常(OutOfMemoryException) 。这是因为 Hibernate 把所有新插入的客户(Customer)实例在 session 级别的缓存区进行了缓存的缘故。

我们会在本章告诉你如何避免此类问题。首先,如果你要执行批量处理并且想要达到一个理想的性能,那么使用 JDBC 的批量(batching)功能是至关重要。将 JDBC 的批量抓取数量(batch size)参数设置到一个合适值(比如,10 - 50 之间):

hibernate.jdbc.batch_size 20

注意,假若你使用了 identiy 标识符生成器,Hibernate 在 JDBC 级别透明的关闭插入语句的批量执行。

你也可能想在执行批量处理时完全关闭二级缓存:

hibernate.cache.use_second_level_cache false

如果要将很多对象持久化,你必须通过经常的调用 flush() 以及稍后调用 clear() 来控制第一级缓存的大小。

Session session = sessionFactory.openSession();
Transaction tx = session.beginTransaction();
   
for ( int i=0; i<100000; i++ ) {
    Customer customer = new Customer(.....);
    session.save(customer);
    if ( i % 20 == 0 ) { //20, same as the JDBC batch size
        //刷新一批插入并释放内存:
        session.flush();
        session.clear();
    }
}
tx.commit();
session.close();

分页查询:

Query query = sess.createQuery("from entity"); 
query .setFirstResult(20);   //从那一条开始查询索引从0开始计算
query .setMaxResults(10);  //每次查询多少条
List<entity> listname= query .list();

这样写查询语句,即可实现分页查询。


您可以通过点击 文章下方的输入框 来对文章内容作出评价, 也可以通过左上方的 关注按钮 来关注我的博客的最新动态。

如果文章内容对您有帮助, 不要忘记点击右上角的 喜欢按钮 来支持一下哦 !

如果您对文章内容有任何疑问, 可以通过评论方式联系我;

如果需要转载,请注明出处,谢谢!!

猜你喜欢

转载自blog.csdn.net/weixin_44071408/article/details/89147939