前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Python爬虫小偏方:修改referer绕开登录和访问频率限制

Python爬虫小偏方:修改referer绕开登录和访问频率限制

作者头像
一墨编程学习
发布2019-05-15 14:24:35
1.7K0
发布2019-05-15 14:24:35
举报

看官们在写爬虫程序时应该都会遇到如下问题:

  • 你的爬虫程序开发时能正常抓取网页,但是正式大量抓取时,抓取的网站总是返回403或者500等;
  • 你抓取的网站需要登录,要花大量时间去研究网站登录流程。

遇到问题1,我们的第一反应是达到对方访问频率限制,IP被对方屏蔽了,然后就找更多IP和降低访问频率。 遇到问题2,就硬着头皮研究对方加密方法,或人肉登录后用机器把cookie保存下来,耗去好几天时间。

除了上述直接攻克的方法,还有一种取巧的方法可以绕过上述两个问题,就是修改http header中的referer来达到。注意这里是修改referer,不是修改user-agent。

我在网络爬虫的原理和[爬虫分析利器:谷歌chrome浏览器中已经介绍过http header和怎么使用chrome浏览器查看header信息了,还不太了解的可以再去复习一下这部分知识,这里就只着简单科普一下referer是啥。

referer是告诉目标服务器(访问的网站),你是从哪儿点击进入当前页面的。 比如你在百度搜索某个网站,然后点击进入网站,这个时候通过抓包工具可以观察到,referer是类似如下样式:

当你遇到上诉两个问题时,你可以尝试把referer改成上述截图里的,是从搜索引擎点击进入的,你会发现有的网站,不会屏蔽从搜索引擎来的IP或者给这些IP的访问频率放得较为宽松。 甚至有的网站内容本来是要登陆才能看见,但是你把referer改成是从百度来的,你会发现居然不用登录也能看见了。

其实一句话就能说完,写了这么一大篇,额。。。

这些网站为什么会厚此薄彼呢?

是有些网站想获取SEO流量,就把从搜索引擎点击进入的访问控制放得较为宽松的原因。所以当你遇到如上两个问题时,先改一改referer试试,这样可以节省你不少的研究时间。这适用于有的爬虫是个临时任务或者一次性的爬虫,不用长期维护,你快速写好抓完数据就好的时候适用。 这个不是每个网站都有这样的待遇,在下遇到的有此情况的网站有某职业社交网站,某工商信息查询网站,某娱乐票务网站,就酱

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2019.05.07 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档