如何读取gzip压缩网页

最近在抓取搜狐的时候发现下载下来的页面都是乱码,开始以为是解码出了问题可是查找半天无果,很是郁闷。返回的状态码是200,怎么都是乱码呢?难道是页面做了加密?
其实这是搜狐为了加快网页加载速度对页面做了压缩。哎,我out了~~~~

下面来解决这个问题吧~~~
1.如何判断页面是否是压缩的
URLConnection hc = null;
hc.getHeaderField("Content-Encoding") 如果得到的是 gzip则说明页面做了压缩
2.对页面压缩/解压的方法


         /** 
	 * @param source
	 *            源文件
	 * @param target
	 *            目标文件
	 */
	public static void unGZipFile(File source, String target) throws Exception { // 解压文件
		FileInputStream fin = new FileInputStream(source); // 得以文件输入流
		GZIPInputStream gzin = new GZIPInputStream(fin); // 得到压缩输入流
		FileOutputStream fout = new FileOutputStream(target); // 得到文件输出流
		byte[] buf = new byte[1024]; // 缓冲区大小
		int num;
		while ((num = gzin.read(buf, 0, buf.length)) != -1)
		{ // 如果文件未读完
			fout.write(buf, 0, num); // 写入缓冲数据到输出流
		}
		gzin.close(); // 关闭压缩输入流
		fout.close(); // 关闭文件输出流
		fin.close(); // 关闭文件输入流
	}

	/**
	 * gzip压缩文件
	 * 
	 * @param source
	 *            源文件
	 * @param target
	 *            压缩后文件.mms格式
	 * @throws Exception
	 */
	public static void gZipFile(File source, File target) throws Exception {
		FileInputStream fin = new FileInputStream(source);
		BufferedOutputStream out = new BufferedOutputStream(new GZIPOutputStream(
				new FileOutputStream(target)));
		int c = -1;
		while ((c = fin.read()) != -1)
		{
			out.write(c);
		}
		fin.close();
		out.close();
	}


找到原因,问题很容易就被解决了!

猜你喜欢

转载自wangwei3.iteye.com/blog/828968