Python基础代码爬取超链接文字及链接

        今天给大家分享一个Python基本代码爬取超链接文字及超链接,及一一对应存放到本地文件夹TXT文件中,这里因为我是一个Python初学者,所以所写的代码非常简单,对大家而言也是非常容易理解的。

        这里我以我的博客为例写了一个,前面还是逐步解释,后面会附上完整的代码:

首先我们依旧是爬取网页的三个步骤,HTML下载器(生成URL,下载内容),第二;URL管理器,第三;HTML解析器(解析输出):

url = "https://blog.csdn.net/zjy18886018024?t=1"
con=requests.get(url).text
content = urllib.request.urlopen(url).read()
soup=BeautifulSoup(content,"html.parser")  

下面是使用正则表达式爬取超链接,这个正则表达式还是有一些难度,这里我就不多加详解,想要了解的朋友可以去网上参考教程。

lianji=re.findall('href="(.*?details\/\d{8})',con)

接来来是对空格和字符“原”的处理:

nu.append(num[i].replace("原",""))  
 strc.append(nu[j].strip())

这里就是对超链接文字和链接的一一对应处理:

 tops+=str(strc[m])+"\t"+lianji[m]+"\n"

这里的话可能很多朋友和我犯了一个错误,就是存入TXT文件中的时候,不能以列表的形式写入,不然总会报错。好了,现在就附上完整的代码与结果截图:

# coding:utf-8  
  
import urllib.request  
from bs4 import BeautifulSoup  
import requests
import re
  
num=[]
lianjie=[]
url = "https://blog.csdn.net/zjy18886018024?t=1"
con=requests.get(url).text
content = urllib.request.urlopen(url).read()
soup=BeautifulSoup(content,"html.parser")  
top=soup.find_all(attrs={"class":"text-truncate"})
lianji=re.findall('href="(.*?details\/\d{8})',con)
i=0  
nu=[]  
while i<len(top):  
    num.append(top[i].get_text())  
    nu.append(num[i].replace("原",""))  
    i=i+1  
j=0
strc=[]
while j<len(nu):  
   # print(nu[j].strip(),lianji[i])
    strc.append(nu[j].strip())
    j=j+1
m=0
tops=""
while m<len(strc):
    tops+=str(strc[m])+"\t"+lianji[m]+"\n"
    m=m+1
print(tops)
k=0
while k<len(tops):
    with open("C:\\Users\\ASUS\\Desktop\\txt1\\neirong.txt","a+") as f:
        f.write(tops[k])
        k=k+1
        f.close()

print("写入成功")
    

结果如下:




这些代码很基础简单吧,所以不管我们学什么,首先看重的是基础,万丈高楼平地起,切不可好高骛远。好了,今天就分享到这里了,有什么问题可以给我留言,我给大家解答。




猜你喜欢

转载自blog.csdn.net/zjy18886018024/article/details/80590828
今日推荐