本篇文章主要介绍使用bs4解析来爬取某网站上的唯美高清大图,涉及到的零碎知识较多,详细易懂,适合新手小白爬虫入门。
思路如下:
①拿到主页面的源代码,然后提取到子页面的链接地址href;
②通过href进入子页面,从子页面源代码中找到图片的下载地址,img ->src;
③下载图片;
下面通过代码讲解具体做法:
import requests from bs4 import BeautifulSoup import time url="https://www.umei.cc/bizhitupian/weimeibizhi/" resp=requests.get(url) resp.encoding='utf-8' #处理中文乱码。这里的内容需要与源代码中charset的值保持一致。 #把源码交给bs解析 main_page=BeautifulSoup(resp.text,"html.parser") #指定html解析器 #使用find()在源代码中找到div,其属性为class且其属性值为TypeList的代码段,返回一个列表; #在这个列表中找所有的a标签 alist=main_page.find("div",class_="TypeList").find_all("a") #print(alist) #拿到定位到此区域下面的所有内容 for a in alist: href=a.get("href") #直接通过get就可以拿到属性的值 #print(href) #拿到每个子页面后面一截链接 child_href="https://www.umei.cc"+href #通过字符串拼接,得到子页面链接 print(child_href) #拿到子页面的源码 child_page_resp=requests.get(child_href) child_page_resp.encoding='utf-8' child_page_text=child_page_resp.text #从子页面中拿到图片的下载路径 child_page=BeautifulSoup(child_page_text,"html.parser") p=child_page.find("p",align="center") img=p.find("img") #下载图片 src=img.get("src") img_resp=requests.get(src) #img_resp.content #这里拿到的是字节 img_name=src.split("/")[-1] #拿到url中的最后一个/以后的内容 with open(img_name,"wb") as f: f.write(img_resp.content) #将图片内容写入文件 print("over!!",img_name) time.sleep(1) print("all over!!!")
官网首页
右键,拿到源页面代码,找到<div class="TypeList"的位置,下方即为我们要找的每个子页面的链接地址,这个地址即为a标签中href的值(后期需要拼接)
进入其中任意一个子页面,如姜子牙
相同方式打开此页面的源代码,可以利用选中的这部分文字定位图片的链接(举的栗子是姜子牙,其他同理)
注意:find()找到一个就返回,而findall()是找所有。
得到的列表利用循环对其中的每一个子部分进行相同的操作,然后输出。
得到的链接并不是子页面的链接地址,还需要进行字符串的拼接,拼接成真正的子页面的链接。