文件与日志

文件

  • 长期保存信息的一种数据信息集合
  • 常用操作
    1. 打开关闭
    2. 读写
    3. 查找

open函数

  • open函数负责打开文件,带好多参数
  • 第一个参数:必须有,文件的路径和名称
  • 第二个:mode,表明文件用什么方式打开
    1. r 只读方式
    2. w 写文件方式打开,会覆盖以前内容
    3. x 创建方式打开,如果文件已经存在,报错
    4. a 以追加的方式对文件内容进行写入
    5. t 文本方式打开
      • 可读写

with语句

  • with语句使用的技术是一种上下文管理协议的技术
  • 自动判断文件作用域,自动关闭不在使用的文件句柄
# with案例

with open(r'test01.txt', 'r') as f:
    # 按行读取内容
    strline = f.readline()
    # 此结构保证能够完整读取文件知道结束
    while strline:
        print(strline)
        strline = f.readline()
结果
文件内容全部被打印出来
# read是按字符读取文件内容
# 允许输入参数决定读取几个字符,如果没有制定,从当前位置读取到结尾
# 否则,从当前位置读取指定个数字符

seek (offset,from)

  • 移动文件的读取位置,也叫读取指针
  • from的取值范围:
    1. 0:从文件头开始偏移
    2. 1 从文件当前值开始偏移
    3. 2 从文件末尾开始偏移
  • 移动单位是字节
  • 一个汉字由3个字节构成
  • read参数的单位是字符,可以理解成一个汉字就是一个字符,但是seek的参单位是字节
  • tell可以显示指针当前指针位置

文件写操作-write

  • write:把字符串写入文件
  • WriteLine:把字符串按行写入文件

持久化

pickle

  • 序列化(持久化,落地):把程序运行中的信息保存在磁盘上
  • 反序列化:序列化的逆过程
  • pickle.dump 和 pickle.load
# 序列化案例
import pickle

age = 19

with open(r'test01.txt', 'wb') as f:
    pickle.dump(age, f) 
    # 反序列化案例

import pickle

with open(r'test01.txt', 'rb') as f:
    age = pickle.load(f)
    print(age)

shelve

  • 类似字典,用kv值进行保存数据,存取方式和字典类似
  • open,close
# 使用shelve创建文件并使用
import shelve

# 打开文件
# shv相当于一个字典
shv = shelve.open(r'shv.db')

shv['one'] = 1
shv['two'] = 2
shv['three'] = 3

shv.close()

# 通过以上案例发现,shelve自动创建的不仅仅是一个shv.db文件,还包括其他格式文件
 shelve 使用with管理上下文环境
 # 用writeback=True进行强制保存

with shelve.open(r'shv.db', writeback=True) as shv:
    k1 = shv['one']
    print(k1)
    # 此时,一旦shelve关闭,则内容还是存在于内存中,没有写回数据库
    k1["eins"] =1000

    
    
with shelve.open(r'shv.db') as shv:
    print(shv['one'])


log日志

  • 日志是一种可以追踪某些软件运行时所发生事件的方法。软件开发人员可以向他们的代码中调用日志记录相关的方法来表明发生了某些事情。一个事件可以用一个可包含可选变量数据的消息来描述。此外,事件也有重要性的概念,这个重要性也可以被称为严重性级别(level)。
  • logging模块(日志模块)
  • logging模块提供模块级别的函数记录日志

日志相关操作

  • 日志运行速度慢,只记录关键信息
  • 级别
    • DEBUG
    • INFO
    • NOTICE
    • WARNING
    • ERROR
    • CRITICAL
    • ALERT
    • EMERGENCY
    • 不同用户关注不同的程序信息
  • 作用
    • 调试
    • 了解软件运行情况
    • 分析定位问题
  • 日志信息
    • time
    • 问题地点
    • level
    • 内容

写日志

  • 级别自定义
  • 初始化/写日志实例需要指定级别,只有当级别等于或者高于指定级别才被记录
  • 使用方式
    • 直接使用logging(封装了其他组件)
    • logging四大组件直接定制

logging模块级别日志

  • 使用下列函数
    • logging.debug(msg, *args, **kwargs) 创建一条严重级别为DEBUG的日志记录
    • logging.info(msg, *args, **kwargs) 创建一条严重级别为INFO的日志记录
    • logging.warning(msg, *args, **kwargs) 创建一条严重级别为WARNING的日志记录
    • logging.error(msg, *args, **kwargs) 创建一条严重级别为ERROR的日志记录
    • logging.critical(msg, *args, **kwargs) 创建一条严重级别为CRITICAL的日志记录
    • logging.log(level, *args, **kwargs) 创建一条严重级别为level的日志记录
    • logging.basicConfig(**kwargs) 对root logger进行一次性配置
  • logging.basicConfig(**kwargs) 对root logger进行一次性配置
    • 只在第一次调用的时候起作用
    • 不配置logger则使用默认值
      • 输出: sys.stderr
      • 级别: WARNING
      • 格式: level:log_name:content
import logging

LOG_FORMAT = "%(asctime)s=====%(levelname)s++++++%(message)s"# 时间,文件名,内容

logging.basicConfig(filename="tulingxueyuan.log", level=logging.DEBUG, format=LOG_FORMAT)

logging.debug("This is a debug log.")
logging.info("This is a info log.")
logging.warning("This is a warning log.")
logging.error("This is a error log.")
logging.critical("This is a critical log.")






# 另外一种写法
logging.log(logging.DEBUG, "This is a debug log.")
logging.log(logging.INFO, "This is a info log.")
logging.log(logging.WARNING, "This is a warning log.")
logging.log(logging.ERROR, "This is a error log.")
logging.log(logging.CRITICAL, "This is a critical log.")
# 默认warning,低于这个不显示
  • format参数

      asctime 	%(asctime)s 	日志事件发生的时间--人类可读时间,如:2003-07-08 16:49:45,896
      created 	%(created)f 	日志事件发生的时间--时间戳,就是当时调用time.time()函数返回的值
      relativeCreated 	%(relativeCreated)d 	日志事件发生的时间相对于logging模块加载时间的相对毫秒数(目前还不知道干嘛用的)
      msecs 	%(msecs)d 	日志事件发生事件的毫秒部分
      levelname 	%(levelname)s 	该日志记录的文字形式的日志级别('DEBUG', 'INFO', 'WARNING', 'ERROR', 'CRITICAL')
      levelno 	%(levelno)s 	该日志记录的数字形式的日志级别(10, 20, 30, 40, 50)
      name 	%(name)s 	所使用的日志器名称,默认是'root',因为默认使用的是 rootLogger
      message 	%(message)s 	日志记录的文本内容,通过 msg % args计算得到的
      pathname 	%(pathname)s 	调用日志记录函数的源码文件的全路径
      filename 	%(filename)s 	pathname的文件名部分,包含文件后缀
      module 	%(module)s 	filename的名称部分,不包含后缀
      lineno 	%(lineno)d 	调用日志记录函数的源代码所在的行号
      funcName 	%(funcName)s 	调用日志记录函数的函数名
      process 	%(process)d 	进程ID
      processName 	%(processName)s 	进程名称,Python 3.1新增
      thread 	%(thread)d 	线程ID
      threadName 	%(thread)s 	线程名称 
    

logging模块处理流程

  • 四大组件
    • 日志器(logger):产生日志的一个接口
    • 处理器 (handler):把产生的日志发送到相应目的地
    • 过滤器(filter):更精细的控制日志输出
    • 格式器(formatter):把输入信息进行格式化
  • logger
    • 产生日志
    • 操作
Logger.setLevel() 	设置日志器将会处理的日志消息的最低严重级别
 Logger.addHandler() 和 Logger.removeHandler() 	为该logger对象添加 和 移除一个handler对象
 Logger.addFilter() 和 Logger.removeFilter() 	为该logger对象添加 和 移除一个filter对象
Logger.debug: 产生一条debug级别的日志,同理,info,error,等
Logger.exception(): 创建类似于Logger.error的日志消息
Logger.log():获取一个明确的日志level参数类创建一个日志记录
- 如何得到一个logger对象
    - 实例化
    - logging.getlogger()
  • handler
    • 把log发送到指定位置

    • 方法

      • setLevel
      • setFormat
      • addFilter, removeFilter
    • 不需要直接使用,Handler是基类

        logging.StreamHandler 	将日志消息发送到输出到Stream,如std.out, std.err或任何file-like对象。
        logging.FileHandler 	将日志消息发送到磁盘文件,默认情况下文件大小会无限增长
        logging.handlers.RotatingFileHandler 	将日志消息发送到磁盘文件,并支持日志文件按大小切割
        logging.hanlders.TimedRotatingFileHandler 	将日志消息发送到磁盘文件,并支持日志文件按时间切割
        logging.handlers.HTTPHandler 	将日志消息以GET或POST的方式发送给一个HTTP服务器
        logging.handlers.SMTPHandler 	将日志消息发送给一个指定的email地址
        logging.NullHandler 	该Handler实例会忽略error messages,通常被想使用logging的library开发者使用来避免'No handlers could be found for logger XXX'信息的出现。
      
  • Format类
    • 直接实例化
    • 可以继承Format添加特殊内容
    • 三个参数
      • fmt:指定消息格式化字符串,如果不指定该参数则默认使用message的原始值
      • datefmt:指定日期格式字符串,如果不指定该参数则默认使用"%Y-%m-%d %H:%M:%S"
      • style:Python 3.2新增的参数,可取值为 ‘%’, ‘{‘和 ‘$’,如果不指定该参数则默认使用’%’
  • filter类
    • 可以被handler和logger使用
    • 控制传递来的信息
'''

1. 需求

现在有以下几个日志记录的需求:

    1)要求将所有级别的所有日志都写入磁盘文件中
    2)all.log文件中记录所有的日志信息,日志格式为:日期和时间 - 日志级别 - 日志信息
    3)error.log文件中单独记录error及以上级别的日志信息,日志格式为:日期和时间 - 日志级别 - 文件名[:行号] - 日志信息
    4)要求all.log在每天凌晨进行日志切割

2. 分析

    1)要记录所有级别的日志,因此日志器的有效level需要设置为最低级别--DEBUG;
    2)日志需要被发送到两个不同的目的地,因此需要为日志器设置两个handler;另外,两个目的地都是磁盘文件,因此这两个handler都是与FileHandler相关的;
    3)all.log要求按照时间进行日志切割,因此他需要用logging.handlers.TimedRotatingFileHandler; 而error.log没有要求日志切割,因此可以使用FileHandler;
    4)两个日志文件的格式不同,因此需要对这两个handler分别设置格式器;
'''

import logging
import logging.handlers
import datetime


# 定义logger
logger = logging.getLogger('mylogger')
logger.setLevel(logging.DEBUG)


#为两个不同的文件设置不同的handler
rf_handler = logging.handlers.TimedRotatingFileHandler('all.log', when='midnight', interval=1, backupCount=7, atTime=datetime.time(0, 0, 0, 0))
rf_handler.setFormatter(logging.Formatter("%(asctime)s - %(levelname)s - %(message)s"))



f_handler = logging.FileHandler('error.log')
f_handler.setLevel(logging.ERROR)
f_handler.setFormatter(logging.Formatter("%(asctime)s - %(levelname)s - %(filename)s[:%(lineno)d] - %(message)s"))

# 把相应的处理器组装到logger上
logger.addHandler(rf_handler)
logger.addHandler(f_handler)


logger.debug('debug message')
logger.info('info message')
logger.warning('warning message')
logger.error('error message')
logger.critical('critical message')

猜你喜欢

转载自blog.csdn.net/weixin_42479155/article/details/84172187