Python---爬虫

         由于之前有些博客写在了新浪博客上,所以想把一些博客移到这里。其实这篇博客是半年前写的。

一:爬虫是什么

      是一种按照一定的规则,自动地抓取

万维网

信息的程序或者脚本。如果我们把互联网比作一张大的蜘蛛网,数据便是存放于蜘蛛网的各个节点,而爬虫就是一只小蜘蛛,

沿着网络抓取自己的猎物(数据)爬虫指的是:向网站发起请求,获取资源后分析并提取有用数据的程序;

从技术层面来说就是 通过程序模拟浏览器请求站点的行为,把站点返回的HTML代码/JSON数据/二进制数据(图片、视频) 爬到本地,进而提取自己需要的数据,存放起来使用;作为一只聪明的蜘蛛,你需要用你的脑子,存下你已经看过的页面地址。这样,每次看到一个可能需要爬的新链接,你就先查查你脑子里是不是已经去过这个页面地址。如果去过,那就别去了。

二:爬虫的基本流程

模拟浏览器发送请求(获取网页代码)->提取有用的数据->存放于数据库或文件中

三:爬虫的整体思路

先抓取网页内容----再数据提取-----清洗-----入库-----定时爬取数据-----发送变更通知

扫描二维码关注公众号,回复: 2571296 查看本文章

四:需要的模块

1.发起请求

在使用http库向目标站点发起请求,即发送一个Request,可使用

Request模块(缺点:不能执行CSS和JS代码)

2.获取响应内容

如果服务器能正常响应,则会得到一个Response

Response包含:html,json,图片,视频等

3.解析内容

解析html数据:正则表达式(RE模块),第三方解析库如Beautifulsoup,pyquery等

解析json数据:json模块

解析二进制数据:以wb的方式写入文件

4、保存数据

数据库(MySQL,Mongdb、Redis)

文件

五、先看看一些小例子

1、爬获校花网

1基础版:

import re

import requests

respose=requests.get('http://www.xiaohuar.com/v/')

# print(respose.status_code)# 响应的状态码

# print(respose.content)  #返回字节信息

# print(respose.text)  #返回文本内容

urls=re.findall(r'class="items".*?href="(.*?)"',respose.text,re.S)  #re.S 把文本信息转换成1行匹配

url=urls[5]

result=requests.get(url)

mp4_url=re.findall(r'id="media".*?src="(.*?)"',result.text,re.S)[0]

video=requests.get(mp4_url)

with open('D:\\a.mp4','wb') as f:

f.write(video.content)

2.函数封装版

import re

import requests

import hashlib

import time

# respose=requests.get('http://www.xiaohuar.com/v/')

# # print(respose.status_code)# 响应的状态码

# # print(respose.content)  #返回字节信息

# # print(respose.text)  #返回文本内容

# urls=re.findall(r'class="items".*?href="(.*?)"',respose.text,re.S)  #re.S 把文本信息转换成1行匹配

# url=urls[5]

# result=requests.get(url)

# mp4_url=re.findall(r'id="media".*?src="(.*?)"',result.text,re.S)[0]

#

# video=requests.get(mp4_url)

#

# with open('D:\\a.mp4','wb') as f:

#     f.write(video.content)

#

def get_index(url):

    respose = requests.get(url)

    if respose.status_code==200:

        return respose.text

def parse_index(res):

    urls = re.findall(r'class="items".*?href="(.*?)"', res,re.S)  # re.S 把文本信息转换成1行匹配

    return urls

def get_detail(urls):

    for url in urls:

        if not url.startswith('http'):

            url='http://www.xiaohuar.com%s' %url

        result = requests.get(url)

        if result.status_code==200 :

            mp4_url_list = re.findall(r'id="media".*?src="(.*?)"', result.text, re.S)

            if mp4_url_list:

                mp4_url=mp4_url_list[0]

                print(mp4_url)

                # save(mp4_url)

def save(url):

    video = requests.get(url)

    if video.status_code==200:

        m=hashlib.md5()

        m.updata(url.encode('utf-8'))

        m.updata(str(time.time()).encode('utf-8'))

        filename=r'%s.mp4'% m.hexdigest()

        filepath=r'D:\\%s'%filename

        with open(filepath, 'wb') as f:

            f.write(video.content)

def main():

    for i in range(5):

        res1 = get_index('http://www.xiaohuar.com/list-3-%s.html'% i )

        res2 = parse_index(res1)

        get_detail(res2)

if __name__ == '__main__':

    main()

3.并发版(如果一共需要爬30个视频,开30个线程去做,花的时间就是 其中最慢那份的耗时时间)

import re

import requests

import hashlib

import time

from concurrent.futures import ThreadPoolExecutor

p=ThreadPoolExecutor(30) #创建1个程池中,容纳线程个数为30个;

def get_index(url):

    respose = requests.get(url)

    if respose.status_code==200:

        return respose.text

def parse_index(res):

    res=res.result() #进程执行完毕后,得到1个对象

    urls = re.findall(r'class="items".*?href="(.*?)"', res,re.S)  # re.S 把文本信息转换成1行匹配

    for url in urls:

        p.submit(get_detail(url))  #获取详情页 提交到线程池

def get_detail(url):  #只下载1个视频

        if not url.startswith('http'):

            url='http://www.xiaohuar.com%s' %url

        result = requests.get(url)

        if result.status_code==200 :

            mp4_url_list = re.findall(r'id="media".*?src="(.*?)"', result.text, re.S)

            if mp4_url_list:

                mp4_url=mp4_url_list[0]

                print(mp4_url)

                # save(mp4_url)

def save(url):

    video = requests.get(url)

    if video.status_code==200:

        m=hashlib.md5()

        m.updata(url.encode('utf-8'))

        m.updata(str(time.time()).encode('utf-8'))

        filename=r'%s.mp4'% m.hexdigest()

        filepath=r'D:\\%s'%filename

        with open(filepath, 'wb') as f:

            f.write(video.content)

def main():

    for i in range(5):

        p.submit(get_index,'http://www.xiaohuar.com/list-3-%s.html'% i ).add_done_callback(parse_index)

        #1、先把爬主页的任务(get_index)异步提交到线程池

        #2、get_index任务执行完后,会通过回调函add_done_callback()数通知主线程,任务完成;

        #2、把get_index执行结果(注意线程执行结果是对象,调用res=res.result()方法,才能获取真正执行结果),当做参数传给parse_index

        #3、parse_index任务执行完毕后,

        #4、通过循环,再次把获取详情页 get_detail()任务提交到线程池执行

if __name__ == '__main__':

    main()

参考博客:https://www.cnblogs.com/sss4/p/7809821.htm

猜你喜欢

转载自blog.csdn.net/weixin_40586270/article/details/81287543