Python爬虫遇到法语é变成\u00e9

用Python爬虫过程中,尤其是爬取国外网站时候会发现出现一些\u00e9,\u00e8这种

查看原网页发现是一些法文,如é,à,ù等

其实都是不同编码包含内容不同的问题

一般我们用Python存储数据到文件时候是先编码为其他的编码集,比如gbk,或者常用的utf-8

在这儿我们需要的是它原始信息,所以需要数据原始信息,这儿就要提到unicode-escape编码集

unicode-escape编码集是将unicode通过内存编码值直接存储,这正是我们所需要的

所以只要对网页内容通过unicode-escape直接decode就可以了,不过需要注意的是这时候数据类型是Unicode类型的

这时候内容就会变成法语音标的信息了

如果还想把法语改为utf-8的网页内容就继续往下看吧~

记得先引用unicodedata包哦~

normalize()的意思是将其标准化,第一个参数可选的有“NFC”,“NFD”,“NFKC”,“NFKD”

其中,NFC表示字符是一个整体,NFD表示字符是多个字符串合并起来的,所以其标准化后的长度也不一样,NFC的比NFD的要短

同理,NFKC和NFKD也大致是同一个意思,不过这两个新增了兼容性,一般推荐用这两个

而对于后面的decode来说,其函数原型是decode([encoding], [errors='strict'])

第一个参数就是你需要编码的类型

第二个参数控制错误处理的策略,默认的参数就是strict,代表遇到非法字符时抛出异常,它还可以选择为ignore,replace和xmlcharrefreplace 这三个分别代表的意思是忽略非法字符,用?代替非法字符,用XML的字符引用

最后再对相应的字符串改为utf-8就完全从原来的法语改为英语字母啦~~


————————————————
版权声明:本文为CSDN博主「SOD_DOB」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_33631684/article/details/89217670

猜你喜欢

转载自blog.csdn.net/mao_mao37/article/details/106645530