繰り返しのpython scrapy

twisted.internetインポート反応器から、延期
scrapy.crawlerインポートCrawlerRunnerから
configure_logging scrapy.utils.logインポートから
インポート時間
インポートログを
scrapy.utils.projectインポートget_project_settingsから


#在控制台打印日志
configure_logging()
#CrawlerRunner获取settings.py里的设置信息
ランナー= CrawlerRunner(get_project_settings())

@ defer.inlineCallbacks 
デフクロール():
    しばらく真:
        logging.info( "始まる新しいサイクル")
        降伏runner.crawl( " XXXXX ")
         #1S跑一次 
        time.sleep(1
    reactor.stop()

クロール()
reactor.run()

  

おすすめ

転載: www.cnblogs.com/winstonsias/p/12106667.html