爬搜狗首页的源码
import requests from bs4 import BeautifulSoup resp = requests.get('https://123.sogou.com/')#请求搜狗首页 header = {"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.81 Safari/537.36 SE 2.X MetaSr 1.0"} print(resp)#打印请求结果的状态码 print(resp.content)#打印请求到的网页源码 bsobj = BeautifulSoup(resp.content,'lxml')#将网页源码构造成BeautifulSoup对象,方便操作 a_list = bsobj.find_all('a')#获取网页中所有a标签对象 for a in a_list: print(a.get('href'))#获取a标签对象的href属性,那这个对象指向的链接地址
简单保存搜狗首页数据
import requests from bs4 import BeautifulSoup resp = requests.get('https://123.sogou.com/')#请求搜狗首页 header = {"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.81 Safari/537.36 SE 2.X MetaSr 1.0"} print(resp)#打印请求结果的状态码 print(resp.content)#打印请求到的网页源码 bsobj = BeautifulSoup(resp.content,'lxml')#将网页源码构造成BeautifulSoup对象,方便操作 a_list = bsobj.find_all('a')#获取网页中所有a标签对象 text = ' '#创建一个空字符串 for a in a_list: href = a.get('href')#获取a标签对象的href属性,那这个对象指向的链接地址 text += href+'\n'#加入到字符串中,并换行 with open('url.txt','w') as f:#在当前路径下,以写的方式打开一个名为‘url.txt’,如果不存在则创建 f.write(text)#将text里的数据写入文本中
运行后会出现一个url.txt文件,数据就在里面。