爬虫实战:遇上gb2312编码的网页

网页使用什么编码方式(utf-8,gbk,gb2312)等对实际内容的提取影响不大,并不会报错,但爬取到的中文可能存在乱码的现象。虽然现在大部分采用utf-8的网页并不会让你遇到这个问题,但是如果遇到了,知道解决办法还是很重要的。

昨天爬取某网页时,发现提取出的几千行信息中呈现出大量中文乱码现象。话不多说,直接给出博主的解决方案:

1.我使用的是requests包,将爬取到的网页使用的content方法改成text方法,就可以将中文乱码正常显示。(需要尝试,大概率可能成功,不成功采用方法2)

2.随即又发现一个问题,稍微生僻一些的汉字会以问号的格式显示。这个时候,就不得不考虑编码问题了。

改为

问题解决。

猜你喜欢

转载自blog.csdn.net/m0_37842667/article/details/81198702