前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >爬虫代理IP自动分配失败的原因

爬虫代理IP自动分配失败的原因

原创
作者头像
用户6172015
修改2021-07-22 18:11:14
1.2K0
修改2021-07-22 18:11:14
举报
文章被收录于专栏:网络爬虫网络爬虫

最近有小伙伴使用爬虫代理的时候发现一个问题,通过爬虫代理发起请求之后,并没有实现每个HTTP请求自动分配不同的代理IP,而是所有请求都是保持相同代理IP固定使用20秒之后,才会切换新的代理IP,这是什么原因导致的呢?小伙伴提供的部分代码如下:

代码语言:python
复制
    #! -*- encoding:utf-8 -*-

    import requests
    import random

    # 要访问的目标页面
    targetUrl = "http://httpbin.org/ip"

    # 要访问的目标HTTPS页面
    # targetUrl = "https://httpbin.org/ip"

    # 代理服务器(产品官网 www.16yun.cn)
    proxyHost = "t.16yun.cn"
    proxyPort = "31111"

    # 代理验证信息
    proxyUser = "username"
    proxyPass = "password"

    proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % {
        "host" : proxyHost,
        "port" : proxyPort,
        "user" : proxyUser,
        "pass" : proxyPass,
    }

    # 设置 http和https访问都是用HTTP代理
    proxies = {
        "http"  : proxyMeta,
        "https" : proxyMeta,
    }


    #  设置IP切换头
    tunnel = random.randint(1,10000)
    
    
    headers = {
        ‘Connection’:'keep-alive',
        'Accept-Language':'zh',
        "Proxy-Tunnel": str(tunnel)
    }

    for i in range(100):
        resp = requests.get(targetUrl, proxies=proxies, headers=headers)
        print resp.status_code
        print resp.text
        time.sleep(0.2)

经过调试分析,上面的代码主要是两个问题:

1、‘Connection’:'keep-alive' 需要关闭

keep-alive 是客户端和服务端的协议规范,开启 keep-alive,则服务端在返回 response 后不关闭 TCP 连接,接收完响应报文后,客户端也不关闭连接,发送下一个 HTTP 请求时会重用该连接,这就导TCP的链接不断开,因此爬虫代理的自动IP切换就失效了。导致一个代理IP会长期保持使用,直到该代理IP的有效时间20秒到期之后,强制关闭TCP连接切换新的代理IP。

2、tunnel 参数设置错误

tunnel 是用来控制代理IP切换的控制参数。爬虫代理会检查tunnel的数值,数值不同就将HTTP请求随机分配一个新代理IP转发,tunnel相同就将HTTP请求分配相同的代理IP转发。因此为实现每个HTTP请求通过不同的代理IP转发,就应该在for下面实现tunnel = random.randint(1,10000),确保每次HTTP请求中的tunnel是不同的数值。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档