本文主要是介绍【Python爬虫】1.爬搜狗主页,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
# 步骤
# 指定url
# 发起请求
# 获取响应数据
# 持久化存储,存响应数据
# 爬取搜狗首页的页面数据
import requests
if __name__ == "__main__":
#step1
url = 'https://www.sogou.com/'
#step2
#get方法返回一个响应对象
response = requests.get(url=url)
#step3
#text返回的是字符串形式的相应数据
page_text = response.text
print(page_text)
#step4
with open('./sogou.html' , 'w' , encoding='utf-8') as fp:#存到html文件里
fp.write(page_text)
print('爬取数据结束!!!')
这篇关于【Python爬虫】1.爬搜狗主页的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!