HTML5教程

动态HTML处理(Selenium爬取斗鱼详情)

本文主要是介绍动态HTML处理(Selenium爬取斗鱼详情),对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

python编程快速上手(持续更新中…)

python爬虫从入门到精通


文章目录

  • python编程快速上手(持续更新中…)
  • python爬虫从入门到精通
    • 动态HTML介绍
      • JavaScript
      • jQuery
      • Ajax
      • DHTML
    • Selenium与PhantomJS
      • Selenium
      • chromedriver.exe安装Python3
      • PhantomJS(注意:无窗口)
      • Selenium的作用和工作原理
      • selenium的简单使用
        • 1.driver对象的常用属性和方法
        • 2. driver对象定位标签元素获取标签对象的方法
        • 案例:58同程数据抓取
        • 3. 标签对象提取文本内容和属性值
      • selenium的其它使用
        • 1. selenium标签页的切换
        • 2. switch_to切换frame标签
        • 3. selenium对cookie的处理
        • 4. selenium控制浏览器执行js代码
        • 5. 页面等待
        • 6. selenium开启无界面模式
        • 7. selenium使用代理ip
        • 8. selenium替换user-agent
        • 案例:抓取斗鱼详情

动态HTML介绍

JavaScript

JavaScript 是网络上最常用也是支持者最多的客户端脚本语言。它可以收集 用户的跟踪数据,不需要重载页面直接提交表单,在页面嵌入多媒体文件,甚至运行网页游戏。

我们可以在网页源代码的标签里看到,比如:

<script type="text/javascript" src="https://statics.huxiu.com/w/mini/static_2015/js/sea.js?v=201601150944"></script>

jQuery

jQuery 是一个十分常见的库,70% 最流行的网站(约 200 万)和约 30% 的其他网站(约 2 亿)都在使用。一个网站使用 jQuery 的特征,就是源代码里包含了 jQuery 入口,比如:

<script type="text/javascript" src="https://statics.huxiu.com/w/mini/static_2015/js/jquery-1.11.1.min.js?v=201512181512"></script>

如果你在一个网站上看到了 jQuery,那么采集这个网站数据的时候要格外小心。jQuery 可 以动态地创建 HTML 内容,只有在 JavaScript 代码执行之后才会显示。如果你用传统的方 法采集页面内容,就只能获得 JavaScript 代码执行之前页面上的内容。

Ajax

我们与网站服务器通信的唯一方式,就是发出 HTTP 请求获取新页面。如果提交表单之后,或从服务器获取信息之后,网站的页面不需要重新刷新,那么你访问的网站就在用Ajax 技术。

Ajax 其实并不是一门语言,而是用来完成网络任务(可以认为 它与网络数据采集差不多)的一系列技术。Ajax 全称是 Asynchronous JavaScript and XML(异步 JavaScript 和 XML),网站不需要使用单独的页面请求就可以和网络服务器进行交互 (收发信息)。

DHTML

Ajax 一样,动态 HTML(Dynamic HTML, DHTML)也是一系列用于解决网络问题的 技术集合。DHTML 是用客户端语言改变页面的 HTML 元素(HTML、CSS,或者二者皆 被改变)。比如页面上的按钮只有当用户移动鼠标之后才出现,背景色可能每次点击都会改变,或者用一个 Ajax 请求触发页面加载一段新内容,网页是否属于DHTML,关键要看有没有用 JavaScript 控制 HTML 和 CSS 元素。

那么,如何搞定?
那些使用了 Ajax 或 DHTML 技术改变 / 加载内容的页面,可能有一些采集手段。但是用 Python 解决这个问题只有两种途径:

直接从 JavaScript 代码里采集内容(费时费力)
用 Python 的 第三方库运行 JavaScript,直接采集你在浏览器里看到的页面(这个可以有)。

Selenium与PhantomJS

Selenium

Selenium是一个Web的自动化测试工具,最初是为网站自动化测试而开发的,类型像我们玩游戏用的按键精灵,可以按指定的命令自动操作,不同是Selenium 可以直接运行在浏览器上,它支持所有主流的浏览器(包括PhantomJS这些无界面的浏览器)。

Selenium 可以根据我们的指令,让浏览器自动加载页面,获取需要的数据,甚至页面截屏,或者判断网站上某些动作是否发生。

Selenium 自己不带浏览器,不支持浏览器的功能,它需要与第三方浏览器结合在一起才能使用。但是我们有时候需要让它内嵌在代码中运行,所以我们可以用一个叫 PhantomJS 的工具代替真实的浏览器。

可以从 PyPI 网站下载 Selenium库https://pypi.python.org/simple/selenium ,

也可以用 第三方管理器 pip用命令安装:sudo pip install selenium

Selenium 官方参考文档:http://selenium-python.readthedocs.io/index.html

chromedriver.exe安装Python3

在Chrome浏览器里输入"chrome://version",确定本机的Chrome浏览器的版本。
本机的Chrome版本为75.0.3770.142,下载地址中并无完全吻合的版本,最后下载了75.0.3770.142版本对应的亦可兼容本机。

chromedriver.exe的下载地址为 http://chromedriver.storage.googleapis.com/index.html

# 导入 webdriver
from selenium import webdriver

driver = webdriver.Chrome()

driver.get("https://www.baidu.com")

# 打印页面标题
print (driver.title)

# 关闭
driver.quit()

PhantomJS(注意:无窗口)

PhantomJS 是一个基于Webkit的“无界面”(headless)浏览器,它会把网站加载到内存并执行页面上的 JavaScript,因为不会展示图形界面,所以运行起来比完整的浏览器要高效。

如果我们把 Selenium 和 PhantomJS 结合在一起,就可以运行一个非常强大的网络爬虫了,这个爬虫可以处理 JavaScrip、Cookie、headers,以及任何我们真实用户需要做的事情。

PhantomJS 是一个功能完善(虽然无界面)的浏览器而非一个 Python 库,所以它不需要像 Python 的其他库一样安装,但我们可以通过Selenium调用PhantomJS来直接使用。

可以从官方网站http://phantomjs.org/download.html) 下载。

在Ubuntu16.04中可以使用命令安装:sudo apt-get install phantomjs

PhantomJS 官方参考文档:http://phantomjs.org/documentation

windows安装使用
下载地址:http://phantomjs.org/download.html

然后检测下,在cmd窗口输入phantomjs:
在这里插入图片描述
环境变量(python已加)

验证
在这里插入图片描述

from selenium import webdriver

# 指定driver的绝对路径
driver = webdriver.PhantomJS()
# driver = webdriver.Chrome(executable_path='/home/worker/Desktop/driver/chromedriver')

# 向一个url发起请求
driver.get("http://www.baidu.cn/")

# 把网页保存为图片
driver.save_screenshot("baidu.png")

# 退出模拟浏览器
driver.quit() # 一定要退出!不退出会有残留进程!

注意:开发用有界面浏览器,发布用无界面浏览器

Selenium的作用和工作原理

利用浏览器原生的API,封装成一套更加面向对象的Selenium WebDriver API,直接操作浏览器页面里的元素,甚至操作浏览器本身(截屏,窗口大小,启动,关闭,安装插件,配置证书之类的)
在这里插入图片描述
webdriver本质是一个web-server,对外提供webapi,其中封装了浏览器的各种功能
不同的浏览器使用各自不同的webdriver

selenium的简单使用

import time
from selenium import webdriver

# 通过指定chromedriver的路径来实例化driver对象,chromedriver放在当前目录。
# driver = webdriver.Chrome(executable_path='./chromedriver')
# chromedriver已经添加环境变量
driver = webdriver.Chrome()

# 控制浏览器访问url地址
driver.get("https://www.baidu.com/")

# 在百度搜索框中搜索'python'
driver.find_element_by_id('kw').send_keys('python')
# 点击'百度搜索'
driver.find_element_by_id('su').click()

time.sleep(6)
# 退出浏览器
driver.quit()

webdriver.Chrome(executable_path=’./chromedriver’)中executable参数指定的是下载好的chromedriver文件的路径

driver.find_element_by_id(‘kw’).send_keys(‘python’)定位id属性值是’kw’的标签,并向其中输入字符串’python’

driver.find_element_by_id(‘su’).click()定位id属性值是su的标签,并点击

click函数作用是:触发标签的js的click事件

1.driver对象的常用属性和方法

在使用selenium过程中,实例化driver对象后,driver对象有一些常用的属性和方法
driver.page_source 当前标签页浏览器渲染之后的网页源代码
driver.current_url 当前标签页的url
driver.close() 关闭当前标签页,如果只有一个标签页则关闭整个浏览器
driver.quit() 关闭浏览器
driver.forward() 页面前进
driver.back() 页面后退
driver.screen_shot(img_name) 页面截

2. driver对象定位标签元素获取标签对象的方法

在selenium中可以通过多种方式来定位标签,返回标签元素对象
find_element_by_id (返回一个元素)
find_element(s)_by_class_name (根据类名获取元素列表)
find_element(s)_by_name (根据标签的name属性值返回包含标签对象元素的列表)
find_element(s)_by_xpath (返回一个包含元素的列表)
find_element(s)_by_link_text (根据连接文本获取元素列表)
find_element(s)_by_partial_link_text (根据链接包含的文本获取元素列表)
find_element(s)_by_tag_name (根据标签名获取元素列表)
find_element(s)_by_css_selector (根据css选择器来获取元素列表)
注意:
find_element和find_elements的区别:
多了个s就返回列表,没有s就返回匹配到的第一个标签对象
find_element匹配不到就抛出异常,find_elements匹配不到就返回空列表
by_link_text和by_partial_link_tex的区别:全部文本和包含某个文本
以上函数的使用方法
driver.find_element_by_id(‘id_str’)

#coding:utf-8
from selenium import webdriver


# 1.创建浏览器对象
driver = webdriver.Chrome()

# 2.操作浏览器对象
driver.get('http://www.baidu.com')

# 2.定位元素
# driver.find_element_by_xpath('//*[@id="kw"]').send_keys('python37')
# driver.find_element_by_id('kw').send_keys('python37')
# driver.find_element_by_name('wd').send_keys('python37')
# 通过class属性值进行元素定位
# driver.find_element_by_class_name('s_ipt').send_keys('python37')
# driver.find_element_by_css_selector('#kw').send_keys('python37')

# driver.find_element_by_xpath('//*[@id="su"]').click()


# print(driver.find_element_by_tag_name('title'))

# 通过含有链接的完整文本内容进行元素定位   链接文本(链接和文本在同一个标签中)
# driver.find_element_by_link_text('hao12').click()
driver.find_element_by_partial_link_text('hao').click()

案例:58同程数据抓取

#coding:utf-8
from selenium import webdriver


# 1.创建浏览器对象
driver = webdriver.Chrome()

# 2.操作浏览器对象
driver.get('https://lfyanjiao.58.com/hezu/?PGTID=0d100000-0320-44c6-c018-2374633dc940&ClickID=2')


el_list = driver.find_elements_by_xpath('/html/body/div[5]/div/div[5]/div[2]/ul/li/div[2]/h2/a')

print(len(el_list))
print(el_list)

# for el in el_list:
#     print(el.text,el.get_attribute('href'))


# el.send_keys(data), 该元素必须能够接受数据 input/text
# el.click()    该元素必须能够接受点击操作

3. 标签对象提取文本内容和属性值

find_element仅仅能够获取元素,不能够直接获取其中的数据,如果需要获取数据需要使用以下方法
对元素执行点击操作element.click()
对定位到的标签对象进行点击操作
向输入框输入数据element.send_keys(data)
对定位到的标签对象输入数据
获取文本element.text
通过定位获取的标签对象的text属性,获取文本内容
获取属性值element.get_attribute(“属性名”)
通过定位获取的标签对象的get_attribute函数,传入属性名,来获取属性的值

from selenium import webdriver
driver = webdriver.Chrome()
driver.get('http://www.itcast.cn/')
ret = driver.find_elements_by_tag_name('h2')
print(ret[0].text) # 
ret = driver.find_elements_by_link_text('黑马程序员')
print(ret[0].get_attribute('href'))
driver.quit()

selenium的其它使用

1. selenium标签页的切换

当selenium控制浏览器打开多个标签页时,如何控制浏览器在不同的标签页中进行切换呢?需要我们做以下两步:

获取所有标签页的窗口句柄
利用窗口句柄字切换到句柄指向的标签页

这里的窗口句柄是指:指向标签页对象的标识
关于句柄请课后了解更多,本小节不做展开

具体的方法

  1. 获取当前所有的标签页的句柄构成的列表

current_windows = driver.window_handles

  1. 根据标签页句柄列表索引下标进行切换

driver.switch_to.window(current_windows[0])

参考代码示例:

import time
from selenium import webdriver
driver = webdriver.Chrome()
driver.get("https://www.baidu.com/")
time.sleep(1)
driver.find_element_by_id('kw').send_keys('python')
time.sleep(1)
driver.find_element_by_id('su').click()
time.sleep(1)
# 通过执行js来新开一个标签页
js = 'window.open("https://www.sogou.com");'
driver.execute_script(js)
time.sleep(1)
# 1. 获取当前所有的窗口
windows = driver.window_handles
time.sleep(2)
# 2. 根据窗口索引进行切换
driver.switch_to.window(windows[0])
time.sleep(2)
driver.switch_to.window(windows[1])
time.sleep(6)
driver.quit()

2. switch_to切换frame标签

iframe是html中常用的一种技术,即一个页面中嵌套了另一个网页,selenium默认是访问不了frame中的内容的,对应的解决思路是driver.switch_to.frame(frame_element)。接下来我们通过qq邮箱模拟登陆来学习这个知识点

参考代码:

import time
from selenium import webdriver
driver = webdriver.Chrome()
url = 'https://mail.qq.com/cgi-bin/loginpage'
driver.get(url)
time.sleep(2)
login_frame = driver.find_element_by_id('login_frame') # 根据id定位 frame元素
driver.switch_to.frame(login_frame) # 转向到该frame中
driver.find_element_by_xpath('//*[@id="u"]').send_keys('1596930226@qq.com')
time.sleep(2)
driver.find_element_by_xpath('//*[@id="p"]').send_keys('hahamimashicuode')
time.sleep(2)
driver.find_element_by_xpath('//*[@id="login_button"]').click()
time.sleep(2)
"""操作frame外边的元素需要切换出去"""
windows = driver.window_handles
driver.switch_to.window(windows[0])
content = driver.find_element_by_class_name('login_pictures_title').text
print(content)
driver.quit()

总结:

切换到定位的frame标签嵌套的页面中

driver.switch_to.frame(通过find_element_by函数定位的frame、iframe标签对象)

利用切换标签页的方式切出frame标签

windows = driver.window_handles
driver.switch_to.window(windows[0])

3. selenium对cookie的处理

selenium能够帮助我们处理页面中的cookie,比如获取、删除,接下来我们就学习这部分知识

3.1 获取cookie
driver.get_cookies()返回列表,其中包含的是完整的cookie信息!不光有name、value,还有domain等cookie其他维度的信息。所以如果想要把获取的cookie信息和requests模块配合使用的话,需要转换为name、value作为键值对的cookie字典

获取当前标签页的全部cookie信息

print(driver.get_cookies())

把cookie转化为字典

cookies_dict = {cookie[‘name’]: cookie[‘value’] for cookie in driver.get_cookies()}

3.2 删除cookie
删除一条cookie

driver.delete_cookie(“CookieName”)

删除所有的cookie

driver.delete_all_cookies()

4. selenium控制浏览器执行js代码

selenium可以让浏览器执行我们规定的js代码,运行下列代码查看运行效果

#coding:utf-8
from selenium import webdriver


url = 'https://qd.lianjia.com/'

driver = webdriver.Chrome()


driver.get(url)

js = 'scrollTo(0,500)'

driver.execute_script(js)


driver.find_element_by_xpath('/html/body/div[2]/ul/li[1]/a/img').click()

执行js的方法:driver.execute_script(js)

5. 页面等待

页面在加载的过程中需要花费时间等待网站服务器的响应,在这个过程中标签元素有可能还没有加载出来,是不可见的,如何处理这种情况呢?
1.页面等待分类
2.强制等待介绍
3.显式等待介绍
4.隐式等待介绍
5.手动实现页面等待

5.1 页面等待的分类
首先我们就来了解以下selenium页面等待的分类
1.强制等待
2.隐式等待
3.显式等待

5.2 强制等待(了解)
其实就是time.sleep()
缺点时不智能,设置的时间太短,元素还没有加载出来;设置的时间太长,则会浪费时间

5.3 隐式等待
隐式等待针对的是元素定位,隐式等待设置了一个时间,在一段时间内判断元素是否定位成功,如果完成了,就进行下一步

在设置的时间内没有定位成功,则会报超时加载

示例代码

from selenium import webdriver
driver = webdriver.Chrome()  
driver.implicitly_wait(10) # 隐式等待,最长等20秒  
driver.get('https://www.baidu.com')
driver.find_element_by_xpath()

5.4 显式等待(了解)
每经过多少秒就查看一次等待条件是否达成,如果达成就停止等待,继续执行后续代码

如果没有达成就继续等待直到超过规定的时间后,报超时异常

示例代码

from selenium import webdriver  
from selenium.webdriver.support.wait import WebDriverWait  
from selenium.webdriver.support import expected_conditions as EC  
from selenium.webdriver.common.by import By 
driver = webdriver.Chrome()
driver.get('https://www.baidu.com')
显式等待
WebDriverWait(driver, 20, 0.5).until(
    EC.presence_of_element_located((By.LINK_TEXT, '好123')))  
# 参数20表示最长等待20秒
# 参数0.5表示0.5秒检查一次规定的标签是否存在
# EC.presence_of_element_located((By.LINK_TEXT, '好123')) 表示通过链接文本内容定位标签
# 每0.5秒一次检查,通过链接文本内容定位标签是否存在,如果存在就向下继续执行;如果不存在,直到20秒上限就抛出异常
print(driver.find_element_by_link_text('好123').get_attribute('href'))
driver.quit() 

5.5 手动实现页面等待
在了解了隐式等待和显式等待以及强制等待后,我们发现并没有一种通用的方法来解决页面等待的问题,比如“页面需要滑动才能触发ajax异步加载”的场景,那么接下来我们就以淘宝网首页为例,手动实现页面等待

原理:
o利用强制等待和显式等待的思路来手动实现
o不停的判断或有次数限制的判断某一个标签对象是否加载完毕(是否存在)

实现代码如下:

import time
from selenium import webdriver
driver = webdriver.Chrome('/home/worker/Desktop/driver/chromedriver')
driver.get('https://www.taobao.com/')
time.sleep(1)
# i = 0
# while True:
for i in range(10):
    i += 1
    try:
        time.sleep(3)
        element = driver.find_element_by_xpath('//div[@class="shop-inner"]/h3[1]/a')
        print(element.get_attribute('href'))
        break
    except:
        js = 'window.scrollTo(0, {})'.format(i*500) # js语句
        driver.execute_script(js) # 执行js的方法
driver.quit()

6. selenium开启无界面模式

绝大多数服务器是没有界面的,selenium控制谷歌浏览器也是存在无界面模式的,这一小节我们就来学习如何开启无界面模式(又称之为无头模式)

开启无界面模式的方法
o实例化配置对象

options = webdriver.ChromeOptions()

o配置对象添加开启无界面模式的命令

options.add_argument("–headless")

o配置对象添加禁用gpu的命令

options.add_argument("–disable-gpu")

o实例化带有配置对象的driver对象

driver = webdriver.Chrome(chrome_options=options)

o注意:macos中chrome浏览器59+版本,Linux中57+版本才能使用无界面模式!

o参考代码如下:

from selenium import webdriver
options = webdriver.ChromeOptions() # 创建一个配置对象
options.add_argument("--headless") # 开启无界面模式
options.add_argument("--disable-gpu") # 禁用gpu
# options.set_headles() # 无界面模式的另外一种开启方式
driver = webdriver.Chrome(chrome_options=options) # 实例化带有配置的driver对象
driver.get('http://www.itcast.cn')
print(driver.title)
driver.quit()

7. selenium使用代理ip

selenium控制浏览器也是可以使用代理ip的!

o使用代理ip的方法
实例化配置对象

options = webdriver.ChromeOptions()

配置对象添加使用代理ip的命令

options.add_argument(’–proxy-server=http://202.20.16.82:9527’)

实例化带有配置对象的driver对象

driver = webdriver.Chrome(’./chromedriver’, chrome_options=options)

参考代码如下:

from selenium import webdriver
options = webdriver.ChromeOptions() # 创建一个配置对象
options.add_argument('--proxy-server=http://202.20.16.82:9527') # 使用代理ip
driver = webdriver.Chrome(chrome_options=options) # 实例化带有配置的driver对象
driver.get('http://www.itcast.cn')
print(driver.title)
driver.quit()

8. selenium替换user-agent

selenium控制谷歌浏览器时,User-Agent默认是谷歌浏览器的,这一小节我们就来学习使用不同的User-Agent
替换user-agent的方法
实例化配置对象

options = webdriver.ChromeOptions()

配置对象添加替换UA的命令

options.add_argument(’–user-agent=Mozilla/5.0 HAHA’)

实例化带有配置对象的driver对象

driver = webdriver.Chrome(’./chromedriver’, chrome_options=options)

参考代码如下:

from selenium import webdriver
options = webdriver.ChromeOptions() # 创建一个配置对象
options.add_argument('--user-agent=Mozilla/5.0 HAHA') # 替换User-Agent
driver = webdriver.Chrome('./chromedriver', chrome_options=options)
driver.get('http://www.itcast.cn')
print(driver.title)
driver.quit()

案例:抓取斗鱼详情

#coding:utf-8
from selenium import webdriver
import time

class Douyu(object):

    def __init__(self):
        self.url = 'https://www.douyu.com/directory/all'
        self.driver = webdriver.Chrome()

    def parse_data(self):
        time.sleep(3)
        room_list = self.driver.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li/div')
        print(len(room_list))

        data_list = []
        # 遍历房间列表,从没一个房间节点中获取数据
        for room in room_list:
            temp = {}
            #//*[@id="listAll"]/section[2]/div[2]/ul/li/div/a
            temp['title'] = room.find_element_by_xpath('./a[1]/div[2]/div[1]/h3').text
            temp['type'] = room.find_element_by_xpath('./a[1]/div[2]/div[1]/span').text
            temp['owner'] = room.find_element_by_xpath('./a[1]/div[2]/div[2]/h2').text
            temp['num'] = room.find_element_by_xpath('./a[1]/div[2]/div[2]/span').text
            # temp['img'] = room.find_element_by_xpath('./a[1]/div[1]/div[1]/img').get_attribute('src')
            data_list.append(temp)

        return data_list

    def save_data(self, data_list):
        for data in data_list:
            print(data)

    def run(self):
        # url
        # driver
        # get

        self.driver.get(self.url)
        while True:
            # parse
            data_list = self.parse_data()

            # save
            self.save_data(data_list)

            # next
            try:
                el_next = self.driver.find_element_by_xpath('//*[contains(text(),"下一页")]')
                self.driver.execute_script('scrollTo(0,1000000)')
                el_next.click()
            except:
                break


if __name__ == '__main__':
    douyu = Douyu()
    douyu.run()
这篇关于动态HTML处理(Selenium爬取斗鱼详情)的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!