Python教程

Python爬虫学习总结(二)之LXML使用心得

本文主要是介绍Python爬虫学习总结(二)之LXML使用心得,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

解析模块的使用都是大同小异的。都是创建解析对象,定义解析规则,保存解析后的文件。

感觉LXML的优点最大的优点就是可以在Chrome按F12直接审查页面元素。右键复制为XPATH。

 然后再进行修改就可以了。如注释后面的语句#'string(//*[@id="content"])'需要解析哪些地方的语句就复制哪里的,然后修改子节点就行了。

具体的语法查看官方文档就可以了。

def parse_html(self,html):
        parse_html = etree.HTML(html)
        xpath_bds = '//*[@id="content"]/p/text()'#'string(//*[@id="content"])'
        r_list = parse_html.xpath(xpath_bds)
        return r_list

保存方式有俩种,一种是字符串的string(),解析语句放在括号中间。

一种是列表的解析语句放在text()前。

总结:不如re好用。

这篇关于Python爬虫学习总结(二)之LXML使用心得的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!