4分钟插入1000万条数据到mysql数据库表 极速赛车源码下载搭建

极速赛车源码下载搭建

地址一:【hubawl.com】
地址二:【bbscherry.com】
Q1784662395狐霸源码论坛

首先自己准备好数据库表

其实我在插入1000万条数据的时候遇到了一些问题,现在先来解决他们,一开始我插入100万条数据时候报错,控制台的信息如下:

com.mysql.jdbc.PacketTooBigException: Packet for query is too large (4232009 > 4194304). You can change this value on the server by setting the max_allowed_packet’ variable.

出现上面的错误是因为数据库表的 max_allowed_packet这个配置没配置足够大,因为默认的为4M的,后来我调为100M就没报错了

set global max_allowed_packet = 10010241024*
记住,设置好后重新登录数据库才能看的设置后的值
show VARIABLES like '%max_allowed_packet%'
Java的jdbc代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
package insert;

import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.SQLException;
import java.util.Date;

import com.mysql.jdbc.PreparedStatement;

public class InsertTest {

public static void main(String[] args) throws ClassNotFoundException, SQLException {
    final String url = "jdbc:mysql://127.0.0.1/teacher"; 
    final String name = "com.mysql.jdbc.Driver"; 
    final String user = "root"; 
    final String password = "123456"; 
    Connection conn = null; 
    Class.forName(name);//指定连接类型 
    conn = DriverManager.getConnection(url, user, password);//获取连接 
    if (conn!=null) {
        System.out.println("获取连接成功");
        insert(conn);
    }else {
        System.out.println("获取连接失败");
    }

}
public static void insert(Connection conn) {
    // 开始时间
    Long begin = new Date().getTime();
    // sql前缀
    String prefix = "INSERT INTO t_teacher (id,t_name,t_password,sex,description,pic_url,school_name,regist_date,remark) VALUES ";
    try {
        // 保存sql后缀
        StringBuffer suffix = new StringBuffer();
        // 设置事务为非自动提交
        conn.setAutoCommit(false);
        // 比起st,pst会更好些
        PreparedStatement  pst = (PreparedStatement) conn.prepareStatement("");//准备执行语句
        // 外层循环,总提交事务次数
        for (int i = 1; i <= 100; i++) {
            suffix = new StringBuffer();
            // 第j次提交步长
            for (int j = 1; j <= 100000; j++) {
                // 构建SQL后缀
                suffix.append("('" + uutil.UUIDUtil.getUUID()+"','"+i*j+"','123456'"+ ",'男'"+",'教师'"+",'www.bbk.com'"+",'XX大学'"+",'"+"2016-08-12 14:43:26"+"','备注'" +"),");
            }
            // 构建完整SQL
            String sql = prefix + suffix.substring(0, suffix.length() - 1);
            // 添加执行SQL
            pst.addBatch(sql);
            // 执行操作
            pst.executeBatch();
            // 提交事务
            conn.commit();
            // 清空上一次添加的数据
            suffix = new StringBuffer();
        }
        // 头等连接
        pst.close();
        conn.close();
    } catch (SQLException e) {
        e.printStackTrace();
    }
    // 结束时间
    Long end = new Date().getTime();
    // 耗时
    System.out.println("1000万条数据插入花费时间 : " + (end - begin) / 1000 + " s");
    System.out.println("插入完成");
}

}
  结果:

哈哈,1000万条数据288秒完成,是不是感觉超级牛逼,我每次插入10万条数据就提交一次事务,如果是一条一条差的话估计要好几个小时,网上有人试过时间浪费在数据库的连接上了,
后来我想测试插入100万条数据时候数据库引擎的差别
首先把代码中最外层的循环i=100改为i=10;
1.数据库引擎为MyISAM时:27s,这个我忘了截图了。因为我后来测试InnoDB的时候我换了一个表来测试,因为我发现改不了数据库表的引擎。。。。所以只能换一个表来测试
1.数据库引擎为InnoDB时:

猜你喜欢

转载自blog.51cto.com/13864515/2140379