钢铁知识库,一个学习python爬虫、数据分析的知识库。人生苦短,快用python。
之前我们使用requests库爬取某个站点的时候,每发出一个请求,程序必须等待网站返回响应才能接着运行,而在整个爬虫过程中,整个爬虫程序是一直在等待的,实际上没有做任何事情。
像这种占用磁盘/内存IO、网络IO的任务,大部分时间是CPU在等待的操作,就叫IO密集型任务。对于这种情况有没有优化方案呢,当然有,那就是使用aiohttp库实现异步爬虫。
我们在使用requests请求时,只能等一个请求先出去再回来,才会发送下一个请求。明显效率不高阿,这时候如果换成异步请求的方式,就不会有这个等待。一个请求发出去,不管这个请求什么时间响应,程序通过await挂起协程对象后直接进行下一个请求。
解决方法就是通过 aiohttp + asyncio,什么是aiohttp?一个基于 asyncio 的异步 HTTP 网络模块,可用于实现异步爬虫,速度明显快于 requests 的同步爬虫。
区别就是一个同步一个是异步。话不多说直接上代码看效果。
pip install aiohttp
#!/usr/bin/env python # -*- coding: utf-8 -*- # author: 钢铁知识库 import time import requests # 同步请求 def main(): start = time.time() for i in range(5): res = requests.get('http://httpbin.org/delay/2') print(f'当前时间:{datetime.datetime.now()}, status_code = {res.status_code}') print(f'requests同步耗时:{time.time() - start}') if __name__ == '__main__': main() ''' 当前时间:2022-09-05 15:44:51.991685, status_code = 200 当前时间:2022-09-05 15:44:54.528918, status_code = 200 当前时间:2022-09-05 15:44:57.057373, status_code = 200 当前时间:2022-09-05 15:44:59.643119, status_code = 200 当前时间:2022-09-05 15:45:02.167362, status_code = 200 requests同步耗时:12.785893440246582 '''
可以看到5次请求总共用12.7秒,再来看同样的请求异步多少时间。
#!/usr/bin/env python # file: day6-9同步和异步.py # author: 钢铁知识库 import asyncio import time import aiohttp async def async_http(): # 声明一个支持异步的上下文管理器 async with aiohttp.ClientSession() as session: res = await session.get('http://httpbin.org/delay/2') print(f'当前时间:{datetime.datetime.now()}, status_code = {res.status}') tasks = [async_http() for _ in range(5)] start = time.time() # Python 3.7 及以后,不需要显式声明事件循环,可以使用 asyncio.run()来代替最后的启动操作 asyncio.run(asyncio.wait(tasks)) print(f'aiohttp异步耗时:{time.time() - start}') ''' 当前时间:2022-09-05 15:42:32.363966, status_code = 200 当前时间:2022-09-05 15:42:32.366957, status_code = 200 当前时间:2022-09-05 15:42:32.374973, status_code = 200 当前时间:2022-09-05 15:42:32.384909, status_code = 200 当前时间:2022-09-05 15:42:32.390318, status_code = 200 aiohttp异步耗时:2.5826876163482666 '''
两次对比可以看到执行过程,时间一个是顺序执行,一个是同时执行。这就是同步和异步的区别。
接下来我们会详细介绍aiohttp库的用法和爬取实战。aiohttp 是一个支持异步请求的库,它和 asyncio 配合使用,可以使我们非常方便地实现异步请求操作。asyncio模块,其内部实现了对TCP、UDP、SSL协议的异步操作,但是对于HTTP请求,就需要aiohttp实现了。
aiohttp分为两部分,一部分是Client,一部分是Server。下面来说说aiohttp客户端部分的用法。
先写一个简单的案例
#!/usr/bin/env python # -*- coding: utf-8 -*- # @Author : 钢铁知识库 import asyncio import aiohttp async def get_api(session, url): # 声明一个支持异步的上下文管理器 async with session.get(url) as response: return await response.text(), response.status async def main(): async with aiohttp.ClientSession() as session: html, status = await get_api(session, 'http://httpbin.org/delay/2') print(f'html: {html[:50]}') print(f'status : {status}') if __name__ == '__main__': # Python 3.7 及以后,不需要显式声明事件循环,可以使用 asyncio.run(main())来代替最后的启动操作 asyncio.get_event_loop().run_until_complete(main()) ''' html: { "args": {}, "data": "", "files": {}, status : 200 Process finished with exit code 0 '''
aiohttp请求的方法和之前有明显区别,主要包括如下几点:
注意:Python3.7及以后的版本中,可以使用asyncio.run(main())代替最后的启动操作。
对于URL参数的设置,我们可以借助params设置,传入一个字典即可,实例如下:
#!/usr/bin/env python # -*- coding: utf-8 -*- # @Author : 钢铁知识库 import aiohttp import asyncio async def main(): params = {'name': '钢铁知识库', 'age': 23} async with aiohttp.ClientSession() as session: async with session.get('https://www.httpbin.org/get', params=params) as res: print(await res.json()) if __name__ == '__main__': asyncio.get_event_loop().run_until_complete(main()) ''' {'args': {'age': '23', 'name': '钢铁知识库'}, 'headers': {'Accept': '*/*', 'Accept-Encoding': 'gzip, deflate', 'Host': 'www.httpbin.org', 'User-Agent': 'Python/3.8 aiohttp/3.8.1', 'X-Amzn-Trace-Id': 'Root=1-63162e34-1acf7bde7a6d801368494c72'}, 'origin': '122.55.11.188', 'url': 'https://www.httpbin.org/get?name=钢铁知识库&age=23'} '''
可以看到实际请求的URL后面带了后缀,这就是params的内容。
除了get请求,aiohttp还支持其它请求类型,如POST、PUT、DELETE等,和requests使用方式类似。
session.post('http://httpbin.org/post', data=b'data') session.put('http://httpbin.org/put', data=b'data') session.delete('http://httpbin.org/delete') session.head('http://httpbin.org/get') session.options('http://httpbin.org/get') session.patch('http://httpbin.org/patch', data=b'data')
要使用这些方法,只需要把对应的方法和参数替换一下。用法和get类似就不再举例。
对于响应来说,我们可以用如下方法分别获取其中的响应情况。状态码、响应头、响应体、响应体二进制内容、响应体JSON结果,实例如下:
#!/usr/bin/env python # @Author : 钢铁知识库 import aiohttp import asyncio async def main(): data = {'name': '钢铁知识库', 'age': 23} async with aiohttp.ClientSession() as session: async with session.post('https://www.httpbin.org/post', data=data) as response: print('status:', response.status) # 状态码 print('headers:', response.headers) # 响应头 print('body:', await response.text()) # 响应体 print('bytes:', await response.read()) # 响应体二进制内容 print('json:', await response.json()) # 响应体json数据 if __name__ == '__main__': asyncio.get_event_loop().run_until_complete(main())
''' status: 200 headers: <CIMultiDictProxy('Date': 'Tue, 06 Sep 2022 00:18:36 GMT', 'Content-Type': 'application/json', 'Content-Length': '534', 'Connection': 'keep-alive', 'Server': 'gunicorn/19.9.0', 'Access-Control-Allow-Origin': '*', 'Access-Control-Allow-Credentials': 'true')> body: { "args": {}, "data": "", "files": {}, "form": { "age": "23", "name": "\u94a2\u94c1\u77e5\u8bc6\u5e93" }, "headers": { "Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Content-Length": "57", "Content-Type": "application/x-www-form-urlencoded", "Host": "www.httpbin.org", "User-Agent": "Python/3.8 aiohttp/3.8.1", "X-Amzn-Trace-Id": "Root=1-631691dc-6aa1b2b85045a1a0481d06e1" }, "json": null, "origin": "122.55.11.188", "url": "https://www.httpbin.org/post" } bytes: b'{\n "args": {}, \n "data": "", \n "files": {}, \n "form": {\n "age": "23", \n "name": "\\u94a2\\u94c1\\u77e5\\u8bc6\\u5e93"\n }, \n "headers": {\n "Accept": "*/*", \n "Accept-Encoding": "gzip, deflate", \n "Content-Length": "57", \n "Content-Type": "application/x-www-form-urlencoded", \n "Host": "www.httpbin.org", \n "User-Agent": "Python/3.8 aiohttp/3.8.1", \n "X-Amzn-Trace-Id": "Root=1-631691dc-6aa1b2b85045a1a0481d06e1"\n }, \n "json": null, \n "origin": "122.5.132.196", \n "url": "https://www.httpbin.org/post"\n}\n' json: {'args': {}, 'data': '', 'files': {}, 'form': {'age': '23', 'name': '钢铁知识库'}, 'headers': {'Accept': '*/*', 'Accept-Encoding': 'gzip, deflate', 'Content-Length': '57', 'Content-Type': 'application/x-www-form-urlencoded', 'Host': 'www.httpbin.org', 'User-Agent': 'Python/3.8 aiohttp/3.8.1', 'X-Amzn-Trace-Id': 'Root=1-631691dc-6aa1b2b85045a1a0481d06e1'}, 'json': None, 'origin': '122.55.11.188', 'url': 'https://www.httpbin.org/post'} '''
可以看到有些字段前面需要加await,因为其返回的是一个协程对象(如async修饰的方法),那么前面就要加await。
标签:Python,爬虫,零基础必,实战教程,数据,链接,数字字母 来源:
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。