初次学习python爬虫的朋友在频繁访问被爬取页面网站时都会被拦截,也就是限制ip。这里教教大家建立代理ip池。
#!...{ip.split(':')[0]: ip} # 代理ip
try:
response=requests.get(url=targeturl,proxies=proxies,...----------------------
# 免费代理 XiciDaili
def findip(type,pagenum,targeturl,path): # ip类型,页码,目标url,存放ip...数量
print('一共爬取代理ip: %s 个,共耗时: %s \n' % (len(ips), diff))
#-------------------------------------...(targeturl,path)
以上就是我借鉴别人代码而修改成的自己的代理ip池,你可以直接调用get_ip()函数,也可以使用if __name__=’__main__’:跑这段代码。