学习笔记:
通过本章的学习,学习到了requests和BeautifulSoup模块的安装及使用方法。以及爬取给类网站的方法和知识点。
1、requests和BeautifulSoup 安装 pip install requests......
2、使用
import requests
from bs4 import BeautifulSoup
GET请求
r = requests.get('http://')
r.text 返回headers中的编码解析的结果,可以通过r.encoding = 'gbk'来变更解码方式
r.content返回二进制结果
r.json()返回JSON格式,可能抛出异常
r.status_code
r.raw返回原始socket respons,需要加参数stream=True
传递headers
headers ={
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.133 Safari/537.36',
'Host':'github.com'
}
传递cookies
提交data
data = {
'commit':'Sign in',
'utf8':'✓',
}
req_submit = requests.post(url=url,data=data,headers=headers1,cookies=cookies)
获取页面信息
req_submit.content.decode()
####################
加载要解析的文本内容
soup = BeautifulSoup("<html>data</html>",'html.parser')
查找相应的标签
soup_html = soup.find(name='html')
取出文本
soup_html.text