python爬虫 request+lxml爬取黄页88网企业信息

黄页88网: 简称黄页网或者黄页88,是由互联网资深人士创办于2009年11月。是一家整合企业黄页、分类信息以及时下流行的SNS社区三方面优势于一体定位于服务B2B平台的网站。主要帮助企业宣传推广公司品牌和产品,黄页88网精细划分了82个大行业分类,并且在每个大的分类下又进行了二级和三级行业细分,更加方便网友对所关注信息的查询和浏览,同时对企业发布的信息进行了整合分类更加方便企业对信息的管理和搜索引擎的收录。

官网: http://www.huangye88.com/
贵州IT企业: http://b2b.huangye88.com/guizhou/it/

时间: 2019/08/10

爬取内容: 公司名称,公司详情,联系电话,地点,主营产品。

操作环境: win10, python3.6, jupyter notebook,谷歌浏览器

技术难点:

  • 该网页的数据不是每一个信息都全面,有很多缺少的内容,企业的信息中经常缺失电话,地址,介绍,主营产品四个信息。
  • 唯一不会缺的是企业的名称,但是其中广告的起始标签和企业的一样,而且三个企业就有一条广告,很容易误爬。
  • 信息缺少的地方,标签也会缺少

1、请求网页源码

import requests
from lxml import etree
url = 'http://b2b.huangye88.com/guizhou/it/'
headers={
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36'
}
res = requests.get(url,headers=headers)
res.encoding = 'utf-8'
html = etree.HTML(res.text)

2、分析网页

对于这个网页,不建议使用BeautifulSoup,因为广告和企业信息都在dl标签内,不方便定位节点。也不建议使用正则表达式,因为很多信息不全,标签的位置也不一样。
在这里插入图片描述

3、提取信息

3.1、先定位企业信息所在的节点,右键Copy Xpath,在其中进行循环查找数据;
for et in html.xpath('//*[@id="jubao"]/dl')
3.2、每个企业一定有的信息是企业名称和详情链接,都在<h4> </h4>标签中,容易区分广告,可以用它来判断其他的信息;
    for et in html.xpath('//*[@id="jubao"]/dl'):
        k = k + 1
        name = et.xpath('./dt/h4/a/@title')#输出数组型
        href = et.xpath('./dt/h4/a/@href')
        if len(name)&len(href) !=0:
        	print (name[0],href[0])

注意: xpath提取的数据是数组型,方便用len()判断它的长度,输出的结果可以用"[ ]"提取出来。

3.3、其他数据容易跌的坑
  • 联系电话: 有部分企业没有,可以通过数组的长度来判断是否存在号码,没有号码就输出空;如果没有输出空的话,则会出现“[ ]”
            tel = et.xpath('./dt/span/a/text()')            
            tel = tel[0] if len(tel) !=0 else ""
  • 公司地址: 地址会出现两种情况,如果公司没有没有介绍,它就只有一对<dd></dd>标签,其他情况都是两个dd标签
            city = et.xpath('./dd[2]/span[1]/text()')
            if len(city) != 0:
                city = city[0]
            else:
                city = et.xpath('./dd/span[1]/text()')[0]
  • 主营产品: 这是难度最大的一个数据
    (1)如果公司缺少介绍,它就只有一个dd标签,可以通过第二个dd标签是否存在来判断它的个数
    (2)当第二个dd标签不存在的时候,需要注意两种情况,才能提取数组中的信息。
    (3)数组中的值分别为[0]、[1]、[2],但都是在最后一位,必须先判断数组work的长度才能取值。
            work = et.xpath('./dd[2]/text()')
            if len(work) !=0:
                work = et.xpath('./dd[2]/text()')[len(work)-1]
            elif len(work) == 0:
                work = et.xpath('./dd/text()')[len(work)-1]
            else:
                work = et.xpath('./dd/text()')[1]

4、源码代码汇总

import requests
from lxml import etree

headers={
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36'
}
for i in range(1,41):
    print ("正在爬取第"+str(i),"个页面")
    url = f'http://b2b.huangye88.com/guizhou/it/pn{i}/'
    res = requests.get(url,headers=headers)
    res.encoding = 'utf-8'
    html = etree.HTML(res.text)
    for et in html.xpath('//*[@id="jubao"]/dl'):
        name = et.xpath('./dt/h4/a/@title')
        href = et.xpath('./dt/h4/a/@href')
        if len(name)&len(href) !=0:        
            tel = et.xpath('./dt/span/a/text()')
            if len(tel) !=0:
                tel = tel[0]
            txt = et.xpath('./dd[1]/text()')
            if len(txt) !=0:
                txt = txt[0]
            city = et.xpath('./dd[2]/span[1]/text()')
            if len(city) != 0:
                city = city[0]
            else:
                city = et.xpath('./dd/span[1]/text()')[0]
            work = et.xpath('./dd[2]/text()')
            if len(work) !=0:
                work = et.xpath('./dd[2]/text()')[len(work)-1]
            elif len(work) == 0:
                work = et.xpath('./dd/text()')[2]
            else:
                work = et.xpath('./dd/text()')[1]
            print (name[0],href[0],tel,txt,city,work,'\n')

爬取部分截图:
在这里插入图片描述
表格部分截图:
在这里插入图片描述
备注: 如果乱码,可使用Excel表格,在数据>自文本>改Tab键为逗号>打开

发布了62 篇原创文章 · 获赞 25 · 访问量 9330

猜你喜欢

转载自blog.csdn.net/ayouleyang/article/details/99086382