一个检测网站有效性的小程序。假设有一批网站,很久没访问过了,想知道它们是不是还能连接,用python批量处理。
场景:假设这批网址都存放在一个txt文档里,检查完连接有效性后,再把网址联合状态(能访问或者不能访问)放在一个csv文档里。
import requests import csv statusDict = {'Website':'Status'} def main(): with open('websites.txt') as fileObject: for line in fileObject: print(line) website = line.strip() # 找到网址,利用strip去除空白和换行 print(website) status = requests.get(website).status_code statusDict[website] = "能访问" if status == 200 else "已失效" # 将字典里的website的值设置为能访问或者已失效 # print(statusDict) # 打印看是否符合预期 # 开始写入到csv文件 with open("website_status.csv", "w", newline="") as fileObject: csvWriters = csv.writer(fileObject) # 写入器 for key in statusDict.keys(): # 开始循环读取字典 # print(key) print(statusDict[key]) # 打印该键的值 csvWriters.writerow([key, statusDict[key]]) # 写入到csv文档,键->值 if __name__ == "__main__": main()