Scrapy的【SitemapSpider】的【官网示例】没有name属性

Windows 10家庭中文版,Python 3.6.4,Scrapy 1.5.0,

上午看了Scrapy的Spiders官文,并按照其中的SitemapSpider的示例练习,发现官文的示例存在问题——SitemapSpider下的Spider类没有name属性

这导致孤编写的测试程序也没有name属性,结果,执行失败:No spider found in file

第一次执行使用的是runspider命令,失败;

第二次使用的是crawl命令——提前将爬虫文件放到某个Scrapy项目的spiders目录下,失败;

后来想起官文开始对于name属性的介绍:必须有的!

This is the most important spider attribute and it’s required.

那么,在爬虫程序中添加name属性,然后再用runspider命令执行,成功,得到了想要的信息。

关于Sitemaps的信息请参考:

What are Sitemaps? 和  Sitemap protocol

注意,并非每一个网站都有Sitemaps文件,当网站不存在Sitemaps文件时,无法用SitemapSpider抓取信息——主要抓取的是网站的链接(大型网站会有很多)。当然,按照官文的介绍,使用网站的robots.txt文件也可以(还需测试)。

孤的爬虫在测试网站发现了579个网页是使用Ctrl+C终止了爬虫的运行,否则,还会有更多:

SitemapSpider有什么用呢?

抓取了网站所有【允许爬虫抓取的(Sitemap协议、robots协议)】链接,然后,再抓取各个链接中的内容。

关于robots协议:Robots exclusion standard 和 robots协议

下面是一些网站的sitemap.xml或robots.txt截图:

发现很多网站时有robots.txt的,而没有sitemap.xml(或者我路径不对?),是因为robots协议是更先进的版本吗

-微博几乎禁止了所有的 爬虫程序 去爬取其数据:

后记

SitemapSpider爬取了网站的链接后,是否可以交给其它爬虫程序处理?

在使用scrapy genspider创建爬虫程序时,没有名为sitemap*的模板:

猜你喜欢

转载自www.cnblogs.com/luo630/p/9249885.html