scrapy的日志logging的使用

scrapy的日志logging的使用

1、 意义 :
为了方便在调试。在scrapy运行中可能停不下来, 关闭就没有记录了。因此把日志保存在文本中方便看信息。
2 、使用:
1) 在settings中增加:

# log config
import datetime
Today=datetime.datetime.now()#取得现在的时间
Log_file_path='scrapy_{}_{}_{}.log'.format(Today.year,Today.month,Today.day)#以时间为文件名
LOG_LEVEL="WARNING"#级别,则高于或者等于该等级的信息就能输出到我的日志中,低于该级别的信息则输出不到我的日志信息中
#logging.warning
LOG_FILE =Log_file_path

#Log_file_path='log/scrapy_{}_{}_{}.log'.format(Today.year,Today.month,Today.day) 则在目标下增加log文件夹

Scrapy提供5层logging级别:

CRITICAL - 严重错误

ERROR - 一般错误

WARNING - 警告信息

INFO - 一般信息

DEBUG - 调试信息

logging设置
通过在setting.py中进行以下设置可以被用来配置logging:

LOG_ENABLED 默认: True,启用logging

LOG_ENCODING 默认: ‘utf-8’,logging使用的编码

LOG_FILE 默认: None,在当前目录里创建logging输出文件的文件名

LOG_LEVEL 默认: ‘DEBUG’,log的最低级别
2)具体的使用:

import logging
logging.warning (“日志信息”)

猜你喜欢

转载自blog.csdn.net/huangwencai123/article/details/89597905