gzcompress的坑

【一、效果】

800k的数据压缩成100k多。效果还是不错。

【二、为什么要压缩】

数据库存不下啊 数据库有个max_allowed_packet限制数据大小。没有改mysql配置的权限,也不想劳烦其他人干脆自己动手。

【三、使用】

失败的尝试千千万万,只说成功的路

<?php
//入库
$src_data1  = file_get_contents('bb.txt');
//先json,再压缩。如果顺序相反,json的结果是空。
$desc_data1 = json_encode($src_data1,JSON_UNESCAPED_UNICODE);
$desc_data2 = gzcompress($desc_data1);
//上面两步如果简写成gzcompress(json_encode(数组));得到的会是一顿乱码。
//所以gzcompress()的参数只能是一个变量
$desc_data3 = base64_encode($desc_data2);//为了入库需要base64
file_put_contents('aa.txt', $desc_data3);//入库。这里存储文件代替

//出库
$src_data11  = file_get_contents('aa.txt');
$desc_data11 = base64_decode($src_data11);
$desc_data12 = gzuncompress($desc_data11);//解压缩
$desc_data13 = json_decode($desc_data12,true);
file_put_contents('cc.txt',$desc_data13);

//对比一下aa.txt与cc.txt的内容。应该是相同的
 ?>

【四、坑】

1.如果要json_encode的话,要先于gzcompress执行。如果gzcompress先执行,json_encode返回的是空值。

2.gzcompress(json_encode(数组))这种写法是不对的,得到的结果是一堆乱码。必须分开写,json_encode处理结果赋值给一个变量,然后gzcompress处理这一变量

3.gzcompress结果直接存入数据库不会成功。可以base64_encode一下。

猜你喜欢

转载自blog.csdn.net/mangrandi/article/details/81780720