python数据结构算法题二十九:在正则式中使用 Unicode

问题:

你正在使用正则表达式处理文本,但是关注的是 Unicode 字符处理。

解决方案:

默认情况下 re 模块已经对一些 Unicode 字符类有了基本的支持。比如,\d 已经 匹配任意的 unicode 数字字符了。

>>> import re
>>> num = re.compile('\d+')
>>> # ASCII digits
>>> num.match('123')
<_sre.SRE_Match object at 0x1007d9ed0> >>> # Arabic digits
>>> num.match('\u0661\u0662\u0663') <_sre.SRE_Match object at 0x101234030> >>>

如果你想在模式中包含指定的 Unicode 字符,你可以使用 Unicode 字符对应的转 义序列 (比如 \uFFF 或者 \UFFFFFFF )。比如,下面是一个匹配几个不同阿拉伯编码页 面中所有字符的正则表达式。

   >>> arabic = re.compile('[\u0600-\u06ff\u0750-\u077f\u08a0-\u08ff]+') >>>

当执行匹配和搜索操作的时候,最好是先标准化并且清理所有文本为标准化格式。但是同样也应该注意一些特殊情况,比如在忽略大小写匹配和大小写 转换时的行为。

>>> pat = re.compile('stra\u00dfe', re.IGNORECASE) >>> s = 'straße'
>>> pat.match(s) # Matches
<_sre.SRE_Match object at 0x10069d370>
>>> pat.match(s.upper()) # Doesn't match >>> s.upper() # Case folds
'STRASSE'
>>>

混合使用 Unicode 和正则表达式通常会让你抓狂。如果你真的打算这样做的话,最 好考虑下安装第三方正则式库,它们会为 Unicode 的大小写转换和其他大量有趣特性 提供全面的支持,包括模糊匹配。

>>> s = '\ufb01' # A single character >>> s
''
>>> unicodedata.normalize('NFD', s) ''
# Notice how the combined letters are broken apart here
>>> unicodedata.normalize('NFKD', s) 'fi'
>>> unicodedata.normalize('NFKC', s) 'fi'
>>>

标准化对于任何需要以一致的方式处理 Unicode 文本的程序都是非常重要的。当 处理来自用户输入的字符串而你很难去控制编码的时候尤其如此。

在清理和过滤文本的时候字符的标准化也是很重要的。比如,假设你想清除掉一些 文本上面的变音符的时候 (可能是为了搜索和匹配)。

猜你喜欢

转载自blog.csdn.net/m0_68635815/article/details/135463808