本文主要是介绍Python selenium,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
数据解析
- response 方法
- content 返回二进制响应数据
- text 返回字符串
- json() 返回json对象
正则
- re.S 单行匹配
- re.M 多行匹配
img_src_list = re.findall(ex,img_data,re.S)
bs4数据解析
数据解析的原理
- 1.标签定位
- 2.提取标签、标签属性中存储的数据值
bs4数据解析的原理:
- 1.实例化一个BeautifulSoup对象,并将页面源码数据加载到该对象中
- 2.通过调用BeautifulSoup对象中相关的属性或者方法进行标签定位和数据提取
对象的实例化:
- 本地html文档数据加载
- fp = open('xx.html','r',encoding = 'utf-8')
- soup = BeautifulSoup(fp,'lxml')
- 页面源码加载
- page_text = response.text
- soup = BeautifulSoup(page_text,'lxml')
- 使用lxml解析器
bs4方法属性
- soup.tagName 返回第一次出现的tagName标签
-print(soup.a)\soup.div\soup.p ...
- soup.find('div')
- 等同于soup.div\print(soup.find('div'))
- 属性定位
- soup.find('div',class_/id/attr = 'xxx')
- 返回目标标签
- soup.findall('tagName')
- soup.select()
- 类选择器 soup.select('.xxx'),('.'类选择器)
- id,class, 标签...选择器,(返回列表)
- 标签选择soup.select('xxx')
- 层级选择器
- soup.select('.xxx > div > l > a')[0] //>表示的是一个层级
- soup.select('.xxx > div a')[0]空格表示多个层级
- 获取标签间文本数据
- soup.a.text/string/get_text()
- text/get_text() 可以获取一个标签中所有的文本内容(子标签)
- string 只可以获取标签下直系文本内容
- 获取标签中的属性值
- soup.select('.xxx > div > l > a')[0]['href']
xpath解析
-编码错误解决方法
- encode('iso-8859-1').decode('gbk')
- encode('iso-8859-1').decode('utf-8')
这篇关于Python selenium的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!