python爬虫基础了解

1.爬虫

  请求网站并提取数据的自动化程序
2.爬虫的基本流程
    1.发起请求
        通过HTTP库向目标站点发起请求,即发送一个Request,请求可以包含额外的headers等信息,等待服务器响应。
    2.获取响应内容
        如果服务器能正常响应,会得到一个Response,Response的内容便是所要获取的页面内容,类型有可能有HTML,Json字符串,二进制数据(如图片视频)等类型。
    3.解析内容
        得到的内容可能是HTML,可以用正则表达式、网页解析库进行解析。可能是Json,可以直接转化为Json对象解析,可能是二进制数据,可以做保存或者进一步的处理。
    4.保存数据
        保存形式多样,可以存为文本,也可以保存至数据库,或者保存特定格式的文件。
3.Request和Response
    1.浏览器发送消息给该网址所在的服务器,这个过程叫做HTTP Request。
    2.服务器收到浏览器发送的消息后,能够根据浏览器发送消息的内容,做相应处理,然后把消息回传给浏览器。这个过程叫做HTTP Response。
    3.浏览器收到服务器的Response信息后,会对信息进行相应处理,然后展示。
4.Request的内容
    1.请求方式:主要有GET、POST两种类型,另外还有HEAD、PUT、DELETE、OPTIONS等。
    2.请求URL:URL全称统一资源定位符,如一个网页文档、一个图片、一个视频等都可以用URL唯一来确定。
    3.请求头:包含请求时的头部信息,如User-Agent、Host、Cookies等信息。
    4.请求体:请求时额外携带的数据如表单提交时的表单数据。
5.Response包含的内容
    1.响应状态:有多种相应状态,如200代表成功、301跳转、404找不到页面、502服务器错误。
    2.响应头:如内容类型、内容长度、服务器信息、设置Cookie等等。
    3.响应体:最主要的部分,包含了请求资源的内容,如网页HTML、图片二进制数据等。
6.抓取数据类型
    1.网页文本
        例如HTML、Json格式文本等。
    2.图片
        获取到的是二进制文件,保存为图片格式。
    3.视频
        同为二进制文件,保存为视频格式即可。
    4.其他
        可以请求到的都能获取。
7.解析方式
    1.直接处理
    2.Json解析
    3.正则表达式
    4.BeautifulSoup
    5.PyQuery
    6.Xpath
8.js渲染
    1.分析Ajax请求
    2.Selenium驱动浏览器
    3.Splash
    4.其他库
9.保存数据
    1.文本
    2.关系型数据库
    3.非关系型数据库
    4二进制文件

猜你喜欢

转载自www.cnblogs.com/limu/p/9704849.html