理解和解决Python2中的编码问题

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/u010223750/article/details/56684096

前言

经常处理一些文本,处理英文语料没什么问题,但是到了中文这儿就让人抓狂了,稍微不注意就会窜出各种乱码错误,平时出现几个小错误试试调调也能过去,但是对于编码这个问题还是畏惧,这几天好好整理了一下python的编码问题,感谢万能的Google和万能的StackOverflow,算是解决了我当前对编码问题的一些困惑

编码的前世今生

从unicode说去

在计算机中,所有的东西都是以字节形式储存的,但是字节对于我们来说是没有具体意义的,因此我们需要把二进制字节转换成人们能够理解的字符。最早的是使用ASCII码将字符对应到二进制字节上,如下图
这里写图片描述
给定一个ASCII码65(十六进制41),我们知道它对应的是字符A,但是ASCII码仅仅能够表示有限的字符,于是ISO Latin1 或者8859-1,比ASCII码多拓展了96个字符,之后也有一些字符集进行了更多的拓展,但是世界范围内的字符是很多的,东亚的中日韩还有俄文等字符也需要对应的编码方式,这个时候Unicode的编码方式出来了,Unicode的想法是统一天下编码方式,Unicode涵盖了上数以千计的字符码点方法,而且Unicode留有还有很多未码点空间,所以Unicode能完全满足现在和之后若干年的人类编码需求。Unicode是一个以’U+’字符开头,后面跟着4位或者5位或者6位十六进制数字,下图展示了6种字符的Unicode码点方式:
这里写图片描述
那么接下来的问题就是如何把Unicode码点映射到二进制字节上,常用的码点映射方式有UTF-16、UTF-32,UTF-8。下图是UTF-8映射的一个实例:
这里写图片描述
可以看出,单字节的ASCII码字符仍然映射的是单字节,而且ASCII编码方式是UTF-8的子集。

理解python2的encode和decode

python的str和Unicode类型

python2的编码解码方式和python3不一样,这里暂且先表述python2 中的encode和decode。
在python2中,有两种不同的字符串数据类型,一种是 “str”对象,存储着字节,如果在字符串前使用一个’u’的前缀,表示的是这个字符的Unicode码点:

>>> my_string="Hello World"
>>> type(my_string)
<type 'str'>
>>> my_unicode=u"Hello World"
>>> type(my_unicode)
<type 'unicode'>

其中第一个是“str”另一个是“unicode”,这是不一样的,这点需要尤其注意,这两种都可以叫string,但是有时不一样的东西 这点会在之后介绍两者的区别。

python的encode和decode

首先明白一件事情,之前说过Unicode将所有的字符都对应上了相应的码点,而UTF-8或者ASCII码不过是对应从Unicode到字节的映射方式,既然有映射方式,那么就有映射方向。我们把从Unicode到字节码(byte string)称之为encode,把从字节码(byte string)到Unicode码称之为decode
看个小例子:

>>> s='中国'
>>> len(s)
6
>>> s.decode('utf-8')
u'\u4e2d\u56fd'
>>> s_decode=s.decode('utf-8')
>>> len(s_decode)
2
>>> s_decode.encode('utf-8')
'\xe4\xb8\xad\xe5\x9b\xbd'

这个例子中,s表示的是byte string,其长度有6个字节,将该byte string decode到s_decode,显然,s_decode是一个unicode字符串,其长度变成了2,也就是两个Unicode码点,然后我将s_decode这个Unicode string再次encode到byte string,可以看到这个字节的十六进制编码方式。

python2 的encode和decode errors解析

python2经常出现的错误就是,decode和encode的error问题,来具体看一下。
接着上面的例子:

>>> s_decode.encode('ascii')
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
UnicodeEncodeError: 'ascii' codec can't encode characters in position 0-1:

将s_decode这个Unicode码点使用ascii码的编码方式映射到字节码的时候,出现了问题,问题报错也很显然,ascii码不能讲这个Unicode码点映射到字节上,造成这种原因很简单,ascii码并没有对汉字进行编码,所有这个肯定是有问题的

接着看下面的例子:

>>> s.decode('ascii')
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
UnicodeDecodeError: 'ascii' codec can't decode byte 0xe4 in position 0: or

将s 使用ascii编码方式,将其代表的字节码decode到Unicode码,出现了问题,问题也很显然,ASCII码不包含汉字的映射关系

python2 的encode和decode errors处理

既然有错误,自然有解决的办法,看下面的例子

>>> s_decode.encode('ascii','replace')
'??'

这个例子中,是上一节的encode错误,我们在其后面的参数加上了’replace’这个选项,然后就没有报错,取而代之的是问号

>>> s_decode.encode('ascii','ignore')
''

这里例子中,参数改成了’ignore’,这个的意思是忽略编码错误,所以结果是个空字符
这些处理方法同样适用于decode 的错误解决

>>> s.decode('ascii','replace')
u'\ufffd\ufffd\ufffd\ufffd\ufffd\ufffd'
>>> s.decode('ascii','ignore')
u''

当然这并不是最好的解决方法,这些只是防止一些不能编码的问题出现造成程序的exception,所以在编写程序的时候,特别是使用python2处理中文的时候,还是得小心翼翼的写,说多了都是泪。

python2的潜在的编码转换

Python2默认的编码解码方式是ascii码这点需要牢记于心,接下来看几个潜在的编码转换方式:

>>> ss ='china'
>>> type(ss)
<type 'str'>
>>> type(s_decode)
<type 'unicode'>
>>> s_decode + ss
u'\u4e2d\u56fdchina'

上面这个例子中,s_decode是Unicode字符,ss是字节字符(byte string),两者相加最后的结果仍然是Unicode字符,这个例子中,处理过程其实是这样的:首先将ss按照ascii码decode到unicode字符,然后再将两个Unicode字符拼起来。之所以是按照ascii方式decode,就是因为python2默认的编码方式是ascii。这就造成了一些问题,我们看下面例子:

>>> s_decode+s
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
UnicodeDecodeError: 'ascii' codec can't decode byte 0xe4 in position 0: or

很显然,在先把s这个byte_string转换成Unicode的过程中,系统使用了ascii编码来decode,然而s这个字节码并不能按照ascii编码来decode,原因也是因为s表示的是汉字的字节码。

有没有好的解决方案呢,当然有:

>>> import sys
>>> reload(sys)
<module 'sys' (built-in)>
>>> sys.setdefaultencoding('utf-8')
>>> s_decode+s
u'\u4e2d\u56fd\u4e2d\u56fd'

这个代码将Python的编码默认编码方式由ascii码换成了utf-8,编码,因此s_decode+s这个就不像上面一样报错了。

另外说一点,print可以直接将unicode和byte string打印出来,这点我还有点疑惑

>>> import sys
>>> reload(sys)
<module 'sys' (built-in)>
>>> sys.setdefaultencoding('ascii')
>>> print s
中国
>>> print s_decode.encode('utf-8')
中国
>>> print '\xe4\xb8\xad\xe5\x9b\xbd'
中国

理解python2的文件读写编码问题

上面说了这么多,基本上都是在命令行里进行的,但是平时我们写的最多的还是文件的读写,而文件的读写中文的乱码问题也是让python2变得很让人沮丧的一件事,好好写程序的心情全让这些乱七八糟玩意儿破坏了,有时候也想,如果全世界都是用中文或者英文一种语言多好,没有该死的编码问题。
吐槽就到这儿,还得看看具体的问题:

Python程序开头写#coding=utf-8的作用

Python文件编译最终还是要转换成字节码,Python程序开头写#coding=utf-8的作用其实就是把这个Python程序文件按照utf-8编码的方式映射到字节码,如果不加这个开头,程序里面的中文会按照Python默认的ascii码方式encode,这个肯定是要报错的,大家都知道,如果程序里写了中文但是没有加这个开头,那么pycharm会在一开始就报错,也是这个道理。加了这个开头之后,程序里面的字符都将会使用utf-8编码的方式被映射到字节码,也就是上一个大节里面的byte string,值得注意的是,程序中的汉字将会以utf-8的形式编码成为字节码,因此如果需要将其decode到Unicode字符,也是需要使用utf-8方式decode。
还有一个问题是,写了这个文件之后,Python的系统默认编码方式有没有变?
当然没有,在程序中,它将还是会使用ascii码来encode和decode,举个例子:
首先创建个test.py

vi test.py

该文件内容为:

#coding=utf-8

s='中国'
s_decode=s.decode('utf-8')
ps=s_decode+s
print ps                                                                                                        

我们执行该文件:

 python test.py 
Traceback (most recent call last):
  File "test.py", line 5, in <module>
    ps=s_decode+s
UnicodeDecodeError: 'ascii' codec can't decode byte 0xe4 in position 0: ordinal not in range(128)

会发现,仍然出现了这个问题,所以说这个开头并没有改变Python的系统编码方式,如果想改变,还是按照之前说的,加上sys.setdefaultencoding()这个方法。
将test.py的内容改为:

#coding=utf-8
s='中国'
s_decode=s.decode('utf-8')
ps=s_decode+s.decode('utf-8')
print ps              

执行结果为:

python test.py 
中国中国

由此可见Python默认仍然是使用ascii码方式来编码解码的

Python2读文件的编码问题

先来看Python2的读文件的问题,英文就不说了,怎么弄都是对的,主要说说中文文件的读写。
创建一个文件test.txt

vi test.txt

内容为:

我爱中国

我们使用最简单的读文件方式:

>>> f=open('test.txt','rb')
>>> s=f.read()
>>> s
'\xe6\x88\x91\xe7\x88\xb1\xe4\xb8\xad\xe5\x9b\xbd\n'
>>> s.decode('utf-8')
u'\u6211\u7231\u4e2d\u56fd\n'
>>> print s.decode('utf-8')
我爱中国
>>> print s
我爱中国

显然f.read()读出来的是字节码,然后和上文一样,这个结果都能print.
下面换一种方法读文件:

>>> import codecs
>>> f=codecs.open('test.txt','rb','utf-8')
>>> f.read()
u'\u6211\u7231\u4e2d\u56fd\n'
>>> f=codecs.open('test.txt','rb','utf-8')
>>> s=f.read()
>>> print s
我爱中国

上面这段代码使用了codesc这个包,并给出了编码方式为utf-8,注意python2的open()方法里面没有encoding这个参数,python3才有,千万不要搞混了。可以看出,这次f.read()读出的是Unicode码。这两种不同的形式可以会在后面有不用的结果。

首先看下使用open遇到的问题
看下面的例子:
创建一个test.py文件:

#coding=utf-8
f=open('test.txt','rb')
s=f.read()
print s+u'hello'

执行得到:

 python test.py 
Traceback (most recent call last):
  File "test.py", line 4, in <module>
    print s+u'hello'
UnicodeDecodeError: 'ascii' codec can't decode byte 0xe6 in position 0: ordinal not in range(128)

错误原因当然很明显。还是ascii编码问题。

然后看使用codecs遇到的问题:
修改test.py为:

#coding=utf-8
import codecs
f=codecs.open('test.txt','rb','utf-8')
s=f.read()
ss=s.split('国')
print ss

执行test.py文件:

 python test.py 
Traceback (most recent call last):
  File "test.py", line 5, in <module>
    ss=s.split('国')
UnicodeDecodeError: 'ascii' codec can't decode byte 0xe5 in position 0: ordinal not in range(128)

遇到的问题来了,原因是因为split()方法中的这个’国’是从Unicode码经过encode(‘utf-8’)得来的字节码,而s读的是Unicode码,自然这个会报错,修改test.py为:

#coding=utf-8
import codecs
f=codecs.open('test.txt','rb','utf-8')
s=f.read()
ss=s.split('国'.decode('utf-8'))
print ss

执行结果为:

python test.py 
[u'\u6211\u7231\u4e2d', u'\n']

这次执行成功!

由此可见在文件读写过程中,时刻要保持高度警惕,清醒的知道什么是byte string 什么又是Unicode类型,这点在编写程序的时候要牢记在心。

Python2写文件的编码问题

和上面对应的,使用f=open()这个方法打开待写文件时,使用f.write()或者f.writelines()切记把文本encode转换成字节形式,使用codecs.open()这个方法打开文件,codesc.write()需要写入的是unicode字符。

其他

今天碰到个问题,我觉得可以写下,就是Python2将list中的unicode转换成中文显示,方法如下,感谢作者muge:的解答

list = [{'channel_id': -3, 'name': u'\u7ea2\u5fc3\u5146\u8d6b'}, {u'seq_id': 0, u'name_en': u'Personal Radio', u'channel_id': 0, u'abbr_en': u'My', u'name': u'\u79c1\u4eba\u5146\u8d6b'}]

s = str(self.channel_list).replace('u\'','\'')
print s.decode("unicode-escape")

[{'channel_id': -3, 'name': '红心兆赫'}, {'seq_id': 0, 'name_en': 'Personal Radio', 'channel_id': 0, 'abbr_en': 'My', 'name': '私人兆赫'}, ]

结语

今天系统梳理了一下python2那坑爹的编码问题,吃了多次亏也算是久病成医了,其实关键就是一点铭记于心,Python2的字符串有两种类型:byte string 和unicode string,这才是解决python2的编码问题的关键所在。于北京,25/2/2017

猜你喜欢

转载自blog.csdn.net/u010223750/article/details/56684096
今日推荐