zhwiki语料预处理

一、zhwiki语料的下载:

      https://dumps.wikimedia.org/zhwiki/

      https://dumps.wikimedia.org/zhwiki/20200201/

下载的是红色圈中的文件:zhwiki-20200201-pages-articles.xml.bz2

:其实zhwiki的dump应该是做增量dump的,所以可以直接下载latest即可,不必强调下载的是哪一天的。

二、gensim.corporaz 中的 WikiCorpus 类

WikiCorpus 类可以处理,但是抽取出来的数据都去除了标点符号,估计也可以设置参数保留这些标点符号,但是在BERT的Git主页上推荐了wikiextractor 工具,所以索性试试这个工具,展示放一放gensim。

三、Wikiextractor:

主页:https://github.com/attardi/wikiextractor

使用参考:主页有详细的使用指导

中文使用参考http://www.52nlp.cn/tag/wikiextractor

1、下载:直接从上面主页下载下来后,无需任何安装,直接可以用。

2、目前使用的抽取命令:

python3 WikiExtractor.py 
-o ./zhwiki-20200201 
-b 10M 
--json 
--processes 4 
../zhwiki-20200201-pages-articles.xml.bz2
-o ./zhwiki-20200201


表示将抽取出的数据输出到目录zhwiki-20200201中,其下会创建多个子目录,然后将抽取的文章数据导出到子目录中的文件中,每个文件大小有限制,由参数 -b 指定。

-b 10M 

每个文件的最大大小
 

--json 

文件中的一行数据用json的格式存放,格式如下:

{"id": "", "revid": "", "url":"", "title": "", "text": "..."}
--processes 4 

4个处理器(估计是多线程)
 

../zhwiki-20200201-pages-articles.xml.bz2

待抽取的原始zhwiki文件

发布了78 篇原创文章 · 获赞 4 · 访问量 6万+

猜你喜欢

转载自blog.csdn.net/wangxiaosu/article/details/104215670