Mysql批量插入千万级别数据的配置和使用方式

第一步:配置my.ini文件

文件中配置

bulk_insert_buffer_size=120M 或者更大

将insert语句的长度设为最大。

Max_allowed_packet=1M

Net_buffer_length=8k

保存

第二步:查看设置的参选有没有生效.

Mysql > SHOW VARIABLES;

Mysql千万级别数据批量插入只需简单三步

bulk_insert_buffer_size默认是8M,我们要把它调成100M或百兆以上,也不要太大。下面看调整个好的,如下图:

扫描二维码关注公众号,回复: 13407589 查看本文章

Mysql千万级别数据批量插入只需简单三步

第三步:完成设置后,批量插入数据时使用多条模式。

INSERT INTO table (field1,field2,field3) VALUES ('a',"b","c"), ('a',"b","c"),('a',"b","c");

将以上Mysql插入模式用php语言字符串拼接SQL方法如下,你也可转换Java,Python,Golang其它你用的最顺手的语言,将方法转换分享吧:

/**

* 多条数据同时转化成插入SQL语句

* @ CreatBy:IT自由职业者

* @param string $table 表名

* @$arr_key是表字段名的key:$arr_key=array("field1","field2","field3")

* @param array $arr是字段值 数组示例 arrat(("a","b","c"), ("bbc","bbb","caaa"),('add',"bppp","cggg"))

* @return string

*/

function multArray2Insert($table,$arr_key, $arr, $split = '`') {

$arrValues = array();

if (empty($table) || !is_array($arr_key) || !is_array($arr)) {

return false;

}

$sql = "INSERT INTO %s( %s ) values %s ";

foreach ($arr as $k => $v) {

$arrValues[$k] = "'".implode("','",array_values($v))."'";

}

$sql = sprintf($sql, $table, "{$split}" . implode("{$split} ,{$split}", $arr_key) . "{$split}", "(" . implode(") , (", array_values($arrValues)) . ")");

return $sql;

}

Mysql千万级别数据批量插入只需简单三步

以上方法调试过无误的,头条没有代码格式编辑器,所以发代码图。这段代码的返回字符串结果是INSERT INTO table (field1,field2,field3) VALUES ('a',"b","c"), ('a',"b","c"),('a',"b","c") ,做试验时用的普通配置的电脑是每秒1000条批量插入速度,千万条数据写的速度也非常快,新版本PHP语言数据处理能力很强大。如果你的电脑或服务器性能高,你可以调节$arr数组决定你插入多少条数据,灵活使用吧。

猜你喜欢

转载自blog.csdn.net/zty1317313805/article/details/103193030