request方法用于构造一个请求,可以是get\post\put等任意一种,参数列举如下:
url:请求 URL params:请求参数,字典类型,常用于发送 GET 请求时使用 timeout:超时时间 ,整数类型 headers:设置请求头 auth:指定登陆时的账号和密码,元祖类型 verify:请求网站时是否需要验证,布尔类型 proxies:设置代理 cookies:cookies 值 allow_redirects:布尔值,默认为Ture,重定向开关 stream:布尔值,默认为True,为True时会先下载响应头,当Reponse调用content方法时才下载响应体 cert:传入客户端的SSL证书,为字符串时应是 SSL 客户端证书文件的路径(.pem格式,文件路径包含密钥和证书),如果是元组,就应该是一个(‘cert’, ‘key’) 二元值对。
get方法主要是浏览器以get方法从客户端向服务端进行发送数据包
import requests import json url = 'https://www.taobao.com/' response = requests.get(url=url) #返回响应信息的URL print(response.url) print('------------------') #返回响应的状态码 print(response.status_code) print('----------------') #返回响应的编码形式 print(response.encoding) print('----------------------') #返回响应的cookies信息 print(response.cookies) print('-------------------') #返回响应头 print(response.headers) print('----------------------') #返回byte响应体 print(response.content) print('-------------------------') #返回str的响应体 print(response.text) #返回dict类型的响应体 print(response.json())
post一般是客户端向服务端发送表单时使用该方法。注意:get类型传参是用params,post类型传参是用data。
import requests url ='' headers = { } data ={ name:A age:19 } response = request.post(url=url,data=data,headers=headers) print(response.text)
post返回的response参数和get的一样
post也可以来上传文件
import reuqests url = '' headers={} files = {'file':open('1.txt','rb')} r=requests.post(url=url,headers=headers,files=files) print(r.text)
import requests r = requests.get('https://www.zhihu.com') cookies = r.cookies print(cookies) print('\n') for key,value in cookies: print(key+':'+value)
requests库的session会话对象,可以保存一些cookie等参数,减少登录次数
#模拟淘宝登陆 import requests url='https://login.taobao.com/member/login.jhtml?redirectURL=https%3A%2F%2Fai.taobao.com%2F%3Fpid%3Dmm_26632323_6762370_25910879' headers={'user-agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36'} formdata={'TPL_username':'fsdafdfasf','TPL_password':'fsadfasf'} se=requests.session() #建立session会话 ss=se.post(url=url,headers=headers,data=formdata) #发送post请求 if ss.status_code==200: #判断登陆状态 print('登录成功') else: print('登录失败')
先说为什么要使用代理服务器,使用有效的代理IP地址
我们在做爬虫的过程中经常会遇到这样的情况,最初爬虫正常运行,正常抓取数据,一切看起来都是那么美好,然而一杯茶的功夫可能就会出现错误,比如403 Forbidden,这时候打开网页一看,可能会看到“您的IP访问频率太高”这样的提示。出现这种现象的原因是网站采取了一些反爬虫措施。比如,服务器会检测某个IP在单位时间内的请求次数,如果超过了这个阈值,就会直接拒绝服务,返回一些错误信息,这种情况可以称为封IP。 既然服务器检测的是某个IP单位时间的请求次数,那么借助某种方式来伪装我们的IP,让服务器识别不出是由我们本机发起的请求,不就可以成功防止封IP了吗? 一种有效的方式就是使用葵芳IP代理,目前大的的爬虫代理服务商,后面会详细说明代理的用法。在这之前,需要先了解下代理的基本原理,它是怎样实现IP伪装的呢? 1. 基本原理 代理实际上指的就是代理服务器,英文叫作proxy server,它的功能是代理网络用户去取得网络信息。形象地说,它是网络信息的中转站。在我们正常请求一个网站时,是发送了请求给Web服务器,Web服务器把响应传回给我们。如果设置了代理服务器,实际上就是在本机和服务器之间搭建了一个桥,此时本机不是直接向Web服务器发起请求,而是向代理服务器发出请求,请求会发送给代理服务器,然后由代理服务器再发送给Web服务器,接着由代理服务器再把Web服务器返回的响应转发给本机。这样我们同样可以正常访问网页,但这个过程中Web服务器识别出的真实IP就不再是我们本机的IP了,就成功实现了IP伪装,这就是代理的基本原理。 2. 代理的作用 那么,代理有什么作用呢?我们可以简单列举如下。 突破自身IP访问限制,访问一些平时不能访问的站点。 访问一些单位或团体内部资源:比如使用教育网内地址段免费代理服务器,就可以用于对教育网开放的各类FTP下上传,以及各类资料查询共享等服务。 提高访问速度:通常代理服务器都设置一个较大的硬盘缓冲区,当有外界的信息通过时,同时也将其保存到缓冲区中,当其他用户再访问相同的信息时,则直接由缓冲区中取出信息,传给用户,以提高访问速度。 隐藏真实IP:上网者也可以通过这种方法隐藏自己的IP,免受攻击。对于爬虫来说,我们用代理就是为了隐藏自身IP,防止自身的IP被封锁。 3. 代理分类(1) 根据协议区分 根据代理的协议,代理可以分为如下类别。 FTP代理服务器:主要用于访问FTP服务器,一般有上传、下以及缓存功能,端口一般为21、2121 等。 HTTP代理服务器:主要用于访问网页,一般有内容过滤和缓存功能,端口一般为80、8080、3128 等。 SSL / TLS代理:主要用于访问加密网站,一般有SSL或TLS加密功能(高的支持128位加密强度),端口一般为443。 RTSP代理:主要用于访问Real流媒体服务器,一般有缓存功能,端口一般为554。 Telnet代理:主要用于telnet远程控制(黑客 ** 计算机时常用于隐藏身份),端口一般为23。 POP3 / SMTP代理:主要用于POP3 / SMTP方式收发邮件,一般有缓存功能,端口一般为110 / 25。 SOCKS代理:只是单纯传递数据包,不关心具体协议和用法,所以速度快很多,一般有缓存功能,端口一般为1080。 SOCKS代理协议又分为SOCKS4和SOCKS5,前者只支持TCP,而后者支持TCP和UDP,还支持各种身份验证机制、服务器端域名解析等。简单来说,SOCK4能做到的SOCKS5都可以做到,但SOCKS5能做到的SOCK4不一定能做到。 ( 2) 根据匿名程度区分 根据代理的匿名程度,代理可以分为如下类别。 高度匿名代理:会将数据包原封不动地转发,在服务端看来就好像真的是一个普通客户端在访问,而记录的IP是代理服务器的IP。 普通匿名代理:会在数据包上做一些改动,服务端上有可能发现这是个代理服务器,也有一定几率追查到客户端的真实IP。代理服务器通常会加入的HTTP头有HTTP_VIA和HTTP_X_FORWARDED_FOR。 透明代理:不但改动了数据包,还会告诉服务器客户端的真实IP。这种代理除了能用缓存技术提高浏览速度,能用内容过滤提高安全性之外,并无其他显著作用,最常见的例子是内网中的硬件防火墙。 间谍代理:指组织或个人创建的用于记录用户传输的数据,然后进行研究、监控等目的的代理服务器。
有效代码:
import requests import random def getResponse(url): headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.75 Safari/537.36', 'Connection': 'keep-alive', 'Accept-language': 'zh-CN,zh;q=0.9', 'Accept-encoding': 'gzip, deflate, br', 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8', 'Upgrade-insecure-requests': "1" } # 设置代理ip porxy_list = [ {"http": "http://121.237.148.95:3000"}, {"http": "http://1.202.116.62:8118"}, {"http": "http://218.75.102.198:8000"}, {"http": "http://49.83.243.248:8118"}, {"http": "http://39.137.69.7:8080"}, {"http": "http://221.180.170.104:8080"}, {"http": "https://101.4.136.34:81"}, ] proxy = random.choice(porxy_list) print(proxy) response = requests.get(url, headers=headers, proxies=proxy,timeout=2) if response.status_code==requests.codes.ok: # 响应状态码是200 或者Requests还附带了一个内置的状态码查询对象 return response.text return None url = 'https://www.taobao.com/'
1.https://y4tacker.blog.csdn.net/article/details/107199173 2. https://catwing.blog.csdn.net/article/details/81667529 3. https://blog.csdn.net/xc_zhou/article/details/81021496?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522162427821216780366531236%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=162427821216780366531236&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~top_positive~default-1-81021496.pc_search_result_control_group&utm_term=python%E7%9A%84requests&spm=1018.2226.3001.4187