Python教程

python3爬虫-4.正则表达式爬取当当网TOP500书籍

本文主要是介绍python3爬虫-4.正则表达式爬取当当网TOP500书籍,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

初步探查

打开网站

http://bang.dangdang.com/books/fivestars/1-1

一共25页,每一页最后面的值会发生改变

image-20210824100603567

我们打算获得 排名 书名 图片地址 作者 推荐指数 五星评分 次数价格

image-20210824101524207

image-20210824101414901

逐步实现

主要思路:

  • 使用 page 变量来实现翻页
  • 我们使用 requests 请求当当网
  • 然后将返回的 HTML 进行正则解析
  • 所以解析完之后就把内容存到文件中
def main(page):
  url = 'http://bang.dangdang.com/books/fivestars/01.00.00.00.00.00-recent30-0-0-1-' + str(page)
  html = request_dandan(url)
  items = parse_result(html) # 解析过滤我们想要的信息

  for item in items:
  	write_item_to_file(item)

请求当当网 当我们请求成功之后 拿到源代码

def request_dandan(url):
   try:
       response = requests.get(url)
       if response.status_code == 200:
           return response.text
   except requests.RequestException:
       return None

拿到源代码了就要对其解析 使用正则表达式获取我们想要的关键信息

获取到了之后我们封装一下数据

def parse_result(html):
    # pattern=re.compile('<li>.*?list_num.*?(\d+).</div>.*?<img src="(.*?)".*?class="name".*?title="(.*?)"/>.*?class="star">.*?class="tuijian">(.*?)</span>.*?class="publisher_info">.*?target="_blank">(.*?)</a>.*?class="biaosheng>.*?<span>(.*?)</span></div>.*?<p><span>\sclass="price_n">&yen;(.*?)</span>.*?</li>',re.S)
    pattern = re.compile('<li>.*?list_num.*?(\d+).</div>.*?<img src="(.*?)".*?'
                         'class="name".*?title="(.*?)">.*?class="star">.*?'
                         'class="tuijian">(.*?)</span>.*?class="publisher_info">.*?'
                         'target="_blank">(.*?)</a>.*?class="biaosheng">.*?<span>(.*?)</span></div>.*?'
                         '<p><span\sclass="price_n">&yen;(.*?)</span>.*?</li>',re.S)
    items=re.findall(pattern,html)
    for item in items:
        yield{
            "range":item[0],
            "image":item[1],
            "title":item[2],
            "recommend":item[3],
            "author":item[4],
            "items":item[5],
            "price":item[6],
        }

写到文件里面

def write_item_to_file(item):
   print('开始写入数据 ====> ' + str(item))
   with open('book.txt', 'a', encoding='UTF-8') as f:
       f.write(json.dumps(item, ensure_ascii=False) + '\n')
       f.close()

完整代码

import json
import requests
import re

def main(page):
    url='http://bang.dangdang.com/books/fivestars/01.00.00.00.00.00-recent30-0-0-1-'+str(page)
    html=request_dandan(url)
    items=parse_result(html)# 解析过滤我们想要的信息
    for item in items:
        write_item_to_file(item)

def request_dandan(url):
    try:
        response=requests.get(url)
        if response.status_code==200:
            return response.text
    except requests.RequestException:
        return None

#使用正则表达式获取我们想要的关键信息 获取到了之后我们封装一下数据
def parse_result(html):
    # pattern=re.compile('<li>.*?list_num.*?(\d+).</div>.*?<img src="(.*?)".*?class="name".*?title="(.*?)"/>.*?class="star">.*?class="tuijian">(.*?)</span>.*?class="publisher_info">.*?target="_blank">(.*?)</a>.*?class="biaosheng>.*?<span>(.*?)</span></div>.*?<p><span>\sclass="price_n">&yen;(.*?)</span>.*?</li>',re.S)
    pattern = re.compile('<li>.*?list_num.*?(\d+).</div>.*?<img src="(.*?)".*?'
                         'class="name".*?title="(.*?)">.*?class="star">.*?'
                         'class="tuijian">(.*?)</span>.*?class="publisher_info">.*?'
                         'target="_blank">(.*?)</a>.*?class="biaosheng">.*?<span>(.*?)</span></div>.*?'
                         '<p><span\sclass="price_n">&yen;(.*?)</span>.*?</li>',re.S)
    items=re.findall(pattern,html)
    for item in items:
        yield{
            "range":item[0],
            "image":item[1],
            "title":item[2],
            "recommend":item[3],
            "author":item[4],
            "items":item[5],
            "price":item[6],
        }

#写入文件
def write_item_to_file(item):
   print('开始写入数据 ====> ' + str(item))
   with open('book.txt', 'a', encoding='UTF-8') as f:
       f.write(json.dumps(item, ensure_ascii=False) + '\n')
       f.close()

if __name__=="__main__":
    for i in range(1,26):
        main(i)

最终的效果如下:

image-20210822182711559

这篇关于python3爬虫-4.正则表达式爬取当当网TOP500书籍的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!