python爬虫从小白到高手 Day1 爬取百度音乐歌单

大部分新手接触编程时,往往是刚开始最有兴致与干劲时,看教程写出的代码有各种各样的问题,而往往自己没有能力Debug,如果身边也没有指导,那么热情的火苗就“噗”的熄灭。
如果在开始时就成功运行了代码,有了成就感,那么接下来的学习也会事半功倍。
so,今天来点自信先!
使用firefox、chrome等浏览器 打开百度音乐->歌单->在第一个歌单右击->检查(查看元素)
 
 
播放数 15万
歌单标题 听到停不下来的中文嘻哈
封面地址
歌单地址
 
很清晰,那么接下来就是coding time
 
from selenium import webdriver
from selenium.webdriver.common.desired_capabilities import DesiredCapabilities
import csv

#设置UA标识
dcap = dict(DesiredCapabilities.PHANTOMJS)
dcap["phantomjs.page.settings.userAgent"] = (
    "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.87 Safari/537.36 "
)
driver = webdriver.PhantomJS(executable_path='phantomjs', desired_capabilities=dcap)

#构造百度音乐歌单首页
pageNum = 1
url = '%s%d%s' % ('http://music.baidu.com/songlist/tag/%E5%85%A8%E9%83%A8?orderType=1&offset=', 20*pageNum, '&third_type=')

#创建歌单csv文件
csv_file = open("songlist.csv", "w", newline='', encoding='utf_8_sig')
write = csv.writer(csv_file)
write.writerow(['标题', '播放数', '封面链接', '歌单链接'])

while 1:
    #找到歌单内容存放位置
    driver.get(url)
    data = driver.find_element_by_class_name("songlist-list").find_element_by_tag_name("ul").\
        find_elements_by_tag_name("li")
    #最后一页跳出循环
    if len(data) == 0:
        break

    #解析当前页歌单列表
    for i in range(len(data)):
        num = data[i].find_element_by_class_name("num").text
        #获取播放数大于500万的歌单
        if '万' in num and int(num.split("万")[0]) > 200:
            wrap = data[i].find_element_by_class_name("img-wrap").\
                find_element_by_tag_name("img")
            songListTitle = data[i].find_element_by_class_name("text-title").\
                find_element_by_tag_name("a")
            #输出歌单名等信息
            print(songListTitle.get_attribute('title'),
                  num, wrap.get_attribute('src'),
                  songListTitle.get_attribute('href'))
            #写入csv文件
            write.writerow([songListTitle.get_attribute('title'),
                            num, wrap.get_attribute('src'),
                            songListTitle.get_attribute('href')])
        #构造下一页url
        pageNum += 1
        url = '%s%d%s' % ('http://music.baidu.com/songlist/tag/%E5%85%A8%E9%83%A8?orderType=1&offset=', 20*pageNum, '&third_type=')

csv_file.close()
 
如果没有什么意外,那么你也爬到了这些信息,今天就来说说代码中的一些知识点
1、为什么要设置UA标识
通过这个标识,用户所访问的网站可以显示不同的排版,从而为用户提供更好的体验或者进行信息统计。例如,百度、新浪等网站用手机访问和电脑访问是不一样的,这是因为网站根据访问者的UA判断后,进行了不同的设置和处理。
使用User-Agent伪造浏览器,谎称身份欺骗服务器IE,FireFox,Opera,Maxthon,Chrome,Safari,iPhone,ipad..qq空间说说,微薄转发,有个通过ipad发布。。通过iphone..就是读取User-Agent,当然这个可以伪装的。
用于seo,有一种SEO的技术,就是判断 user-agent,如果是搜索引擎的爬虫,就把内容显示出来,否则的话,只显示给付费用户。所以有的网站能够被Google搜索到,点击链接进去以后 却显示“未注册”、“还不是会员”。通过伪装user-agent可以达到相应的目的。
2、url如何构造
多打开几页歌单,我们发现今天这个百度音乐歌单的地址是依靠offset来控制每页显示的歌单内容。对于不同的网站,url的构成是不同的,这个我们要具体问题具体分析,不能一概而论
3、utf-8编码问题
我使用的python IDE是pycharm,设置文件编码默认为utf-8,如果写入csv文件,Excel的默认编码是gbk,这就会造成中文乱码问题,很多新手不懂什么是文件编码,以为是python程序出现了问题,这个希望大家百度一下,充实自己的知识点,本文不再赘述。
4、Python+selenium常用的一些方法函数
1     加载浏览器驱动: webdriver.PhantomJS()
2     打开页面:get()
3     关闭浏览器:quit()
4     最大化窗口: maximize_window()
5     设置窗口参数:set_window_size(600,800)
6     后退到前一页: back()
7     前进到后一页: forward()
8     刷新页面: refresh()
元素定位:
    id定位:find_element_by_id()
    name定位:find_element_by_name()
    class定位:find_element_by_class()
    tag定位:find_element_by_tag_name()
    link定位:find_element_by_link_text()
    partial link 定位: find_element_by_partial_link_text()
Xpath定位:
    绝对路径:find_element_by_xpath("绝对路径")
    元素属性:find_element_by_xpath("//unput[@id='kw']")
    层级与属性结合:find_element_by_xpath("//form[@id='loginForm']/ul/input[1]")
    逻辑运算符:find_element_by_xpath("//input[@id='kw' and@class='s_ipt']")
CSS定位:
    find_element_by_css_selector()
定位一组元素:
    find_elements_by_id()
    find_elements_by_name()
    find_elements_by_class()
    find_elements_by_tag_name()
    find_elements_by_link_text()
    find_elements_by_partial_link_text()
    find_elements_by_xpath()
    find_elements_by_css_selector()
熟练掌握这些定位方法,会使我们更容易的定位到我们所希望获得的内容上。
 
好了,今天就到这里,明天我们讲一下如何爬取动态页面
 

猜你喜欢

转载自www.cnblogs.com/dmpang/p/9195919.html