JavaScript 是网络上最常用也是支持者最多的客户端脚本语言。它可以收集 用户的跟踪数据,不需要重载页面直接提交表单,在页面嵌入多媒体文件,甚至运行网页游戏。
我们可以在网页源代码的标签里看到,比如:
<script type="text/javascript" src="https://statics.huxiu.com/w/mini/static_2015/js/sea.js?v=201601150944"></script>
jQuery 是一个十分常见的库,70% 最流行的网站(约 200 万)和约 30% 的其他网站(约 2 亿)都在使用。一个网站使用 jQuery 的特征,就是源代码里包含了 jQuery 入口,比如:
<script type="text/javascript" src="https://statics.huxiu.com/w/mini/static_2015/js/jquery-1.11.1.min.js?v=201512181512"></script>
如果你在一个网站上看到了 jQuery,那么采集这个网站数据的时候要格外小心。jQuery 可 以动态地创建 HTML 内容,只有在 JavaScript 代码执行之后才会显示。如果你用传统的方 法采集页面内容,就只能获得 JavaScript 代码执行之前页面上的内容。
我们与网站服务器通信的唯一方式,就是发出 HTTP 请求获取新页面。如果提交表单之后,或从服务器获取信息之后,网站的页面不需要重新刷新,那么你访问的网站就在用Ajax 技术。
Ajax 其实并不是一门语言,而是用来完成网络任务(可以认为 它与网络数据采集差不多)的一系列技术。Ajax 全称是 Asynchronous JavaScript and XML(异步 JavaScript 和 XML),网站不需要使用单独的页面请求就可以和网络服务器进行交互 (收发信息)。
Ajax 一样,动态 HTML(Dynamic HTML, DHTML)也是一系列用于解决网络问题的 技术集合。DHTML 是用客户端语言改变页面的 HTML 元素(HTML、CSS,或者二者皆 被改变)。比如页面上的按钮只有当用户移动鼠标之后才出现,背景色可能每次点击都会改变,或者用一个 Ajax 请求触发页面加载一段新内容,网页是否属于DHTML,关键要看有没有用 JavaScript 控制 HTML 和 CSS 元素。
那么,如何搞定?
那些使用了 Ajax 或 DHTML 技术改变 / 加载内容的页面,可能有一些采集手段。但是用 Python 解决这个问题只有两种途径:
直接从 JavaScript 代码里采集内容(费时费力)
用 Python 的 第三方库运行 JavaScript,直接采集你在浏览器里看到的页面(这个可以有)。
Selenium是一个Web的自动化测试工具,最初是为网站自动化测试而开发的,类型像我们玩游戏用的按键精灵,可以按指定的命令自动操作,不同是Selenium 可以直接运行在浏览器上,它支持所有主流的浏览器(包括PhantomJS这些无界面的浏览器)。
Selenium 可以根据我们的指令,让浏览器自动加载页面,获取需要的数据,甚至页面截屏,或者判断网站上某些动作是否发生。
Selenium 自己不带浏览器,不支持浏览器的功能,它需要与第三方浏览器结合在一起才能使用。但是我们有时候需要让它内嵌在代码中运行,所以我们可以用一个叫 PhantomJS 的工具代替真实的浏览器。
可以从 PyPI 网站下载 Selenium库https://pypi.python.org/simple/selenium ,
也可以用 第三方管理器 pip用命令安装:sudo pip install selenium
Selenium 官方参考文档:http://selenium-python.readthedocs.io/index.html
在Chrome浏览器里输入"chrome://version",确定本机的Chrome浏览器的版本。
本机的Chrome版本为75.0.3770.142,下载地址中并无完全吻合的版本,最后下载了75.0.3770.142版本对应的亦可兼容本机。
chromedriver.exe的下载地址为 http://chromedriver.storage.googleapis.com/index.html
# 导入 webdriver from selenium import webdriver driver = webdriver.Chrome() driver.get("https://www.baidu.com") # 打印页面标题 print (driver.title) # 关闭 driver.quit()
PhantomJS 是一个基于Webkit的“无界面”(headless)浏览器,它会把网站加载到内存并执行页面上的 JavaScript,因为不会展示图形界面,所以运行起来比完整的浏览器要高效。
如果我们把 Selenium 和 PhantomJS 结合在一起,就可以运行一个非常强大的网络爬虫了,这个爬虫可以处理 JavaScrip、Cookie、headers,以及任何我们真实用户需要做的事情。
PhantomJS 是一个功能完善(虽然无界面)的浏览器而非一个 Python 库,所以它不需要像 Python 的其他库一样安装,但我们可以通过Selenium调用PhantomJS来直接使用。
可以从官方网站http://phantomjs.org/download.html) 下载。
在Ubuntu16.04中可以使用命令安装:sudo apt-get install phantomjs
PhantomJS 官方参考文档:http://phantomjs.org/documentation
windows安装使用
下载地址:http://phantomjs.org/download.html
然后检测下,在cmd窗口输入phantomjs:
环境变量(python已加)
验证
from selenium import webdriver # 指定driver的绝对路径 driver = webdriver.PhantomJS() # driver = webdriver.Chrome(executable_path='/home/worker/Desktop/driver/chromedriver') # 向一个url发起请求 driver.get("http://www.baidu.cn/") # 把网页保存为图片 driver.save_screenshot("baidu.png") # 退出模拟浏览器 driver.quit() # 一定要退出!不退出会有残留进程!
注意:开发用有界面浏览器,发布用无界面浏览器
利用浏览器原生的API,封装成一套更加面向对象的Selenium WebDriver API,直接操作浏览器页面里的元素,甚至操作浏览器本身(截屏,窗口大小,启动,关闭,安装插件,配置证书之类的)
webdriver本质是一个web-server,对外提供webapi,其中封装了浏览器的各种功能
不同的浏览器使用各自不同的webdriver
import time from selenium import webdriver # 通过指定chromedriver的路径来实例化driver对象,chromedriver放在当前目录。 # driver = webdriver.Chrome(executable_path='./chromedriver') # chromedriver已经添加环境变量 driver = webdriver.Chrome() # 控制浏览器访问url地址 driver.get("https://www.baidu.com/") # 在百度搜索框中搜索'python' driver.find_element_by_id('kw').send_keys('python') # 点击'百度搜索' driver.find_element_by_id('su').click() time.sleep(6) # 退出浏览器 driver.quit()
webdriver.Chrome(executable_path=’./chromedriver’)中executable参数指定的是下载好的chromedriver文件的路径
driver.find_element_by_id(‘kw’).send_keys(‘python’)定位id属性值是’kw’的标签,并向其中输入字符串’python’
driver.find_element_by_id(‘su’).click()定位id属性值是su的标签,并点击
click函数作用是:触发标签的js的click事件
在使用selenium过程中,实例化driver对象后,driver对象有一些常用的属性和方法
driver.page_source 当前标签页浏览器渲染之后的网页源代码
driver.current_url 当前标签页的url
driver.close() 关闭当前标签页,如果只有一个标签页则关闭整个浏览器
driver.quit() 关闭浏览器
driver.forward() 页面前进
driver.back() 页面后退
driver.screen_shot(img_name) 页面截
在selenium中可以通过多种方式来定位标签,返回标签元素对象
find_element_by_id (返回一个元素)
find_element(s)_by_class_name (根据类名获取元素列表)
find_element(s)_by_name (根据标签的name属性值返回包含标签对象元素的列表)
find_element(s)_by_xpath (返回一个包含元素的列表)
find_element(s)_by_link_text (根据连接文本获取元素列表)
find_element(s)_by_partial_link_text (根据链接包含的文本获取元素列表)
find_element(s)_by_tag_name (根据标签名获取元素列表)
find_element(s)_by_css_selector (根据css选择器来获取元素列表)
注意:
find_element和find_elements的区别:
多了个s就返回列表,没有s就返回匹配到的第一个标签对象
find_element匹配不到就抛出异常,find_elements匹配不到就返回空列表
by_link_text和by_partial_link_tex的区别:全部文本和包含某个文本
以上函数的使用方法
driver.find_element_by_id(‘id_str’)
#coding:utf-8 from selenium import webdriver # 1.创建浏览器对象 driver = webdriver.Chrome() # 2.操作浏览器对象 driver.get('http://www.baidu.com') # 2.定位元素 # driver.find_element_by_xpath('//*[@id="kw"]').send_keys('python37') # driver.find_element_by_id('kw').send_keys('python37') # driver.find_element_by_name('wd').send_keys('python37') # 通过class属性值进行元素定位 # driver.find_element_by_class_name('s_ipt').send_keys('python37') # driver.find_element_by_css_selector('#kw').send_keys('python37') # driver.find_element_by_xpath('//*[@id="su"]').click() # print(driver.find_element_by_tag_name('title')) # 通过含有链接的完整文本内容进行元素定位 链接文本(链接和文本在同一个标签中) # driver.find_element_by_link_text('hao12').click() driver.find_element_by_partial_link_text('hao').click()
#coding:utf-8 from selenium import webdriver # 1.创建浏览器对象 driver = webdriver.Chrome() # 2.操作浏览器对象 driver.get('https://lfyanjiao.58.com/hezu/?PGTID=0d100000-0320-44c6-c018-2374633dc940&ClickID=2') el_list = driver.find_elements_by_xpath('/html/body/div[5]/div/div[5]/div[2]/ul/li/div[2]/h2/a') print(len(el_list)) print(el_list) # for el in el_list: # print(el.text,el.get_attribute('href')) # el.send_keys(data), 该元素必须能够接受数据 input/text # el.click() 该元素必须能够接受点击操作
find_element仅仅能够获取元素,不能够直接获取其中的数据,如果需要获取数据需要使用以下方法
对元素执行点击操作element.click()
对定位到的标签对象进行点击操作
向输入框输入数据element.send_keys(data)
对定位到的标签对象输入数据
获取文本element.text
通过定位获取的标签对象的text属性,获取文本内容
获取属性值element.get_attribute(“属性名”)
通过定位获取的标签对象的get_attribute函数,传入属性名,来获取属性的值
from selenium import webdriver driver = webdriver.Chrome() driver.get('http://www.itcast.cn/') ret = driver.find_elements_by_tag_name('h2') print(ret[0].text) # ret = driver.find_elements_by_link_text('黑马程序员') print(ret[0].get_attribute('href')) driver.quit()
当selenium控制浏览器打开多个标签页时,如何控制浏览器在不同的标签页中进行切换呢?需要我们做以下两步:
获取所有标签页的窗口句柄
利用窗口句柄字切换到句柄指向的标签页
这里的窗口句柄是指:指向标签页对象的标识
关于句柄请课后了解更多,本小节不做展开
具体的方法
current_windows = driver.window_handles
driver.switch_to.window(current_windows[0])
参考代码示例:
import time from selenium import webdriver driver = webdriver.Chrome() driver.get("https://www.baidu.com/") time.sleep(1) driver.find_element_by_id('kw').send_keys('python') time.sleep(1) driver.find_element_by_id('su').click() time.sleep(1) # 通过执行js来新开一个标签页 js = 'window.open("https://www.sogou.com");' driver.execute_script(js) time.sleep(1) # 1. 获取当前所有的窗口 windows = driver.window_handles time.sleep(2) # 2. 根据窗口索引进行切换 driver.switch_to.window(windows[0]) time.sleep(2) driver.switch_to.window(windows[1]) time.sleep(6) driver.quit()
iframe是html中常用的一种技术,即一个页面中嵌套了另一个网页,selenium默认是访问不了frame中的内容的,对应的解决思路是driver.switch_to.frame(frame_element)。接下来我们通过qq邮箱模拟登陆来学习这个知识点
参考代码:
import time from selenium import webdriver driver = webdriver.Chrome() url = 'https://mail.qq.com/cgi-bin/loginpage' driver.get(url) time.sleep(2) login_frame = driver.find_element_by_id('login_frame') # 根据id定位 frame元素 driver.switch_to.frame(login_frame) # 转向到该frame中 driver.find_element_by_xpath('//*[@id="u"]').send_keys('1596930226@qq.com') time.sleep(2) driver.find_element_by_xpath('//*[@id="p"]').send_keys('hahamimashicuode') time.sleep(2) driver.find_element_by_xpath('//*[@id="login_button"]').click() time.sleep(2) """操作frame外边的元素需要切换出去""" windows = driver.window_handles driver.switch_to.window(windows[0]) content = driver.find_element_by_class_name('login_pictures_title').text print(content) driver.quit()
总结:
切换到定位的frame标签嵌套的页面中
driver.switch_to.frame(通过find_element_by函数定位的frame、iframe标签对象)
利用切换标签页的方式切出frame标签
windows = driver.window_handles
driver.switch_to.window(windows[0])
selenium能够帮助我们处理页面中的cookie,比如获取、删除,接下来我们就学习这部分知识
3.1 获取cookie
driver.get_cookies()返回列表,其中包含的是完整的cookie信息!不光有name、value,还有domain等cookie其他维度的信息。所以如果想要把获取的cookie信息和requests模块配合使用的话,需要转换为name、value作为键值对的cookie字典
获取当前标签页的全部cookie信息
print(driver.get_cookies())
把cookie转化为字典
cookies_dict = {cookie[‘name’]: cookie[‘value’] for cookie in driver.get_cookies()}
3.2 删除cookie
删除一条cookie
driver.delete_cookie(“CookieName”)
删除所有的cookie
driver.delete_all_cookies()
selenium可以让浏览器执行我们规定的js代码,运行下列代码查看运行效果
#coding:utf-8 from selenium import webdriver url = 'https://qd.lianjia.com/' driver = webdriver.Chrome() driver.get(url) js = 'scrollTo(0,500)' driver.execute_script(js) driver.find_element_by_xpath('/html/body/div[2]/ul/li[1]/a/img').click()
执行js的方法:driver.execute_script(js)
页面在加载的过程中需要花费时间等待网站服务器的响应,在这个过程中标签元素有可能还没有加载出来,是不可见的,如何处理这种情况呢?
1.页面等待分类
2.强制等待介绍
3.显式等待介绍
4.隐式等待介绍
5.手动实现页面等待
5.1 页面等待的分类
首先我们就来了解以下selenium页面等待的分类
1.强制等待
2.隐式等待
3.显式等待
5.2 强制等待(了解)
其实就是time.sleep()
缺点时不智能,设置的时间太短,元素还没有加载出来;设置的时间太长,则会浪费时间
5.3 隐式等待
隐式等待针对的是元素定位,隐式等待设置了一个时间,在一段时间内判断元素是否定位成功,如果完成了,就进行下一步
在设置的时间内没有定位成功,则会报超时加载
示例代码
from selenium import webdriver driver = webdriver.Chrome() driver.implicitly_wait(10) # 隐式等待,最长等20秒 driver.get('https://www.baidu.com') driver.find_element_by_xpath()
5.4 显式等待(了解)
每经过多少秒就查看一次等待条件是否达成,如果达成就停止等待,继续执行后续代码
如果没有达成就继续等待直到超过规定的时间后,报超时异常
示例代码
from selenium import webdriver from selenium.webdriver.support.wait import WebDriverWait from selenium.webdriver.support import expected_conditions as EC from selenium.webdriver.common.by import By driver = webdriver.Chrome() driver.get('https://www.baidu.com') 显式等待 WebDriverWait(driver, 20, 0.5).until( EC.presence_of_element_located((By.LINK_TEXT, '好123'))) # 参数20表示最长等待20秒 # 参数0.5表示0.5秒检查一次规定的标签是否存在 # EC.presence_of_element_located((By.LINK_TEXT, '好123')) 表示通过链接文本内容定位标签 # 每0.5秒一次检查,通过链接文本内容定位标签是否存在,如果存在就向下继续执行;如果不存在,直到20秒上限就抛出异常 print(driver.find_element_by_link_text('好123').get_attribute('href')) driver.quit()
5.5 手动实现页面等待
在了解了隐式等待和显式等待以及强制等待后,我们发现并没有一种通用的方法来解决页面等待的问题,比如“页面需要滑动才能触发ajax异步加载”的场景,那么接下来我们就以淘宝网首页为例,手动实现页面等待
原理:
o利用强制等待和显式等待的思路来手动实现
o不停的判断或有次数限制的判断某一个标签对象是否加载完毕(是否存在)
实现代码如下:
import time from selenium import webdriver driver = webdriver.Chrome('/home/worker/Desktop/driver/chromedriver') driver.get('https://www.taobao.com/') time.sleep(1) # i = 0 # while True: for i in range(10): i += 1 try: time.sleep(3) element = driver.find_element_by_xpath('//div[@class="shop-inner"]/h3[1]/a') print(element.get_attribute('href')) break except: js = 'window.scrollTo(0, {})'.format(i*500) # js语句 driver.execute_script(js) # 执行js的方法 driver.quit()
绝大多数服务器是没有界面的,selenium控制谷歌浏览器也是存在无界面模式的,这一小节我们就来学习如何开启无界面模式(又称之为无头模式)
开启无界面模式的方法
o实例化配置对象
options = webdriver.ChromeOptions()
o配置对象添加开启无界面模式的命令
options.add_argument("–headless")
o配置对象添加禁用gpu的命令
options.add_argument("–disable-gpu")
o实例化带有配置对象的driver对象
driver = webdriver.Chrome(chrome_options=options)
o注意:macos中chrome浏览器59+版本,Linux中57+版本才能使用无界面模式!
o参考代码如下:
from selenium import webdriver options = webdriver.ChromeOptions() # 创建一个配置对象 options.add_argument("--headless") # 开启无界面模式 options.add_argument("--disable-gpu") # 禁用gpu # options.set_headles() # 无界面模式的另外一种开启方式 driver = webdriver.Chrome(chrome_options=options) # 实例化带有配置的driver对象 driver.get('http://www.itcast.cn') print(driver.title) driver.quit()
selenium控制浏览器也是可以使用代理ip的!
o使用代理ip的方法
实例化配置对象
options = webdriver.ChromeOptions()
配置对象添加使用代理ip的命令
options.add_argument(’–proxy-server=http://202.20.16.82:9527’)
实例化带有配置对象的driver对象
driver = webdriver.Chrome(’./chromedriver’, chrome_options=options)
参考代码如下:
from selenium import webdriver options = webdriver.ChromeOptions() # 创建一个配置对象 options.add_argument('--proxy-server=http://202.20.16.82:9527') # 使用代理ip driver = webdriver.Chrome(chrome_options=options) # 实例化带有配置的driver对象 driver.get('http://www.itcast.cn') print(driver.title) driver.quit()
selenium控制谷歌浏览器时,User-Agent默认是谷歌浏览器的,这一小节我们就来学习使用不同的User-Agent
替换user-agent的方法
实例化配置对象
options = webdriver.ChromeOptions()
配置对象添加替换UA的命令
options.add_argument(’–user-agent=Mozilla/5.0 HAHA’)
实例化带有配置对象的driver对象
driver = webdriver.Chrome(’./chromedriver’, chrome_options=options)
参考代码如下:
from selenium import webdriver options = webdriver.ChromeOptions() # 创建一个配置对象 options.add_argument('--user-agent=Mozilla/5.0 HAHA') # 替换User-Agent driver = webdriver.Chrome('./chromedriver', chrome_options=options) driver.get('http://www.itcast.cn') print(driver.title) driver.quit()
#coding:utf-8 from selenium import webdriver import time class Douyu(object): def __init__(self): self.url = 'https://www.douyu.com/directory/all' self.driver = webdriver.Chrome() def parse_data(self): time.sleep(3) room_list = self.driver.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li/div') print(len(room_list)) data_list = [] # 遍历房间列表,从没一个房间节点中获取数据 for room in room_list: temp = {} #//*[@id="listAll"]/section[2]/div[2]/ul/li/div/a temp['title'] = room.find_element_by_xpath('./a[1]/div[2]/div[1]/h3').text temp['type'] = room.find_element_by_xpath('./a[1]/div[2]/div[1]/span').text temp['owner'] = room.find_element_by_xpath('./a[1]/div[2]/div[2]/h2').text temp['num'] = room.find_element_by_xpath('./a[1]/div[2]/div[2]/span').text # temp['img'] = room.find_element_by_xpath('./a[1]/div[1]/div[1]/img').get_attribute('src') data_list.append(temp) return data_list def save_data(self, data_list): for data in data_list: print(data) def run(self): # url # driver # get self.driver.get(self.url) while True: # parse data_list = self.parse_data() # save self.save_data(data_list) # next try: el_next = self.driver.find_element_by_xpath('//*[contains(text(),"下一页")]') self.driver.execute_script('scrollTo(0,1000000)') el_next.click() except: break if __name__ == '__main__': douyu = Douyu() douyu.run()