Scrapy爬取美女图片第四集 突破反爬虫(上)

本周又和大家见面了,首先说一下我最近正在做和将要做的一些事情。

技术方面的事情:本次端午假期没有休息,正在使用flask开发自己的个人博客框架,之后我的技术教程将会陆续更新flask方面的内容,尽可能的形成一套完整的flask开发教程。之后打算再开通一个微信公众号,自己使用python开发微信公众号后台,给大家提供一些生活上的服务,例如及时提醒一些商家优惠信息,跟踪快递,提醒天气等等,大家如果有什么好的想法,可以给我留言,你的点子如果被采用了,将会出现在贡献者名单中。

生活方面的事情:开始重新学习吉他,多了解一些音乐方面的事情,个人感觉自己的艺术细菌滋生的还是蛮快的。尝试去写比较系统的技术文章,由浅入深,力求最后能形成书籍。

好了,废话不多说,咱们进入今天的主题。前几篇文章,讲述了scrapy爬取美女图片和代理的内容,因为之前的写的爬取代码,在爬取到1000张图片左右就会被ban,所以咱们今天讲解的是使用VPN + Tor来突破反爬虫机制。

根据scrapy官方文档:http://doc.scrapy.org/en/master/topics/practices.html#avoiding-getting-banned里面的描述,要防止scrapy被ban,主要有以下几个策略。

一般前三个策略是必须要做的,然后咱们在选择使用代理ip池,就可以绕过绝大部分的网站的反爬虫机制。

基于咱们之前写的jiandan_2(https://github.com/qiyeboy/jiandan_2)的代码,咱们进行一下改动,需要写一个中间件。在原有工程的基础上,添加middlewares包,同时在包中写入RandomProxy.py(用来设置代理ip),RandomUserAgent(用来动态设置user agent)。


第一步动态设置user agent:

http请求头中user agent包含了我们使用的浏览器和操作系统的一些信息,很多网站通过判断user agent内容来确定用户的,所以咱们要动态设置user agent,来假装自己是很多用户。来看一下代码:

#coding:utf-8

import random
'''
这个类主要用于产生随机UserAgent
'''

class RandomUserAgent(object):

    def __init__(self,agents):
        self.agents = agents

    @classmethod
    def from_crawler(cls,crawler):
        return cls(crawler.settings.getlist('USER_AGENTS'))#返回的是本类的实例cls ==RandomUserAgent

    def process_request(self,request,spider):
        request.headers.setdefault('User-Agent', random.choice(self.agents))

user agent的值,我在setting.py中已经设置好了。

USER_AGENTS = [
    "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; AcooBrowser; .NET CLR 1.1.4322; .NET CLR 2.0.50727)",
    "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0; Acoo Browser; SLCC1; .NET CLR 2.0.50727; Media Center PC 5.0; .NET CLR 3.0.04506)",
    "Mozilla/4.0 (compatible; MSIE 7.0; AOL 9.5; AOLBuild 4337.35; Windows NT 5.1; .NET CLR 1.1.4322; .NET CLR 2.0.50727)",
    "Mozilla/5.0 (Windows; U; MSIE 9.0; Windows NT 9.0; en-US)",
    "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Win64; x64; Trident/5.0; .NET CLR 3.5.30729; .NET CLR 3.0.30729; .NET CLR 2.0.50727; Media Center PC 6.0)",
    "Mozilla/5.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; .NET CLR 1.0.3705; .NET CLR 1.1.4322)",
    "Mozilla/4.0 (compatible; MSIE 7.0b; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; InfoPath.2; .NET CLR 3.0.04506.30)",
    "Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN) AppleWebKit/523.15 (KHTML, like Gecko, Safari/419.3) Arora/0.3 (Change: 287 c9dfb30)",
    "Mozilla/5.0 (X11; U; Linux; en-US) AppleWebKit/527+ (KHTML, like Gecko, Safari/419.3) Arora/0.6",
    "Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.8.1.2pre) Gecko/20070215 K-Ninja/2.1.1",
    "Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9) Gecko/20080705 Firefox/3.0 Kapiko/3.0",
    "Mozilla/5.0 (X11; Linux i686; U;) Gecko/20070322 Kazehakase/0.4.5",
    "Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.8) Gecko Fedora/1.9.0.8-1.fc10 Kazehakase/0.5.6",
    "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11",
    "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_3) AppleWebKit/535.20 (KHTML, like Gecko) Chrome/19.0.1036.7 Safari/535.20",
    "Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; fr) Presto/2.9.168 Version/11.52",
]

第二步 禁用cookie,在setting.py中添加

COOKIES_ENABLED=False

第三步设置延迟下载,在setting.py中添加

DOWNLOAD_DELAY=2

第四步设置代理:

之前爬取的代理,发现稳定性太差,果然是免费提供的,所以我就直接弃用了。自己买了一个VPN(主要是为了翻墙使用Tor),然后在配上Tor,就可以形成一个ip地址池。

首先连接上vpn,我买的是一个美国的地址 。

然后连接Tor(Tor的安装教程网上太多了)。

由于Tor使用的是sock代理方式(绑定了9050端口),我们的http请求不能直接通过它,所以要使用一个http转sock的代理软件polipo(无需安装)。

配置一下config.sample:

socksParentProxy = "localhost:9050"

socksProxyType = socks5

diskCacheRoot = ""

使用cmd命令运行该目录下的程序:polipo.exe -c config.sample(监听8123端口)

最后咱们在setting.py中添加

HTTP_PROXY ='http://127.0.0.1:8123'#使用Tor

最后看一下RandomProxy.py代码:

#coding:utf-8
import random
from jiandan import settings
from jiandan.db.db_helper import DB_Helper

'''
这个类主要用于产生随机代理
'''
class RandomProxy(object):

    def __init__(self):#初始化一下数据库连接
        self.db_helper = DB_Helper()
        self.count =self.db_helper.proxys.count()

    def process_request(self, request, spider):
        '''
        在请求上添加代理
        :param request:
        :param spider:
        :return:
        '''
        # idList = range(1,self.count+1)
        # id = random.choice(idList)
        # result = self.db_helper.findOneResult({'proxyId':id})
        request.meta['proxy'] =settings.HTTP_PROXY

最后运行程序,开始下载。由于Tor网速较慢,下载了3万张图片花了一天左右。。。。

不过没有发生被ban掉的情况。

完整的代码我已经上传到github上:
https://github.com/qiyeboy/jiandan_2
今天的分享就到这里,如果大家觉得还可以呀,记得赞赏呦。

原文发布于微信公众号 - 七夜安全博客(qiye_safe)

原文发表时间:2016-06-12

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏FreeBuf

高级CORS利用技术分享

在正式开始分享我的内容前,我要极力推荐大家去看下Linus Särud和Bo0oM发表的两篇,关于Safari特殊字符处理被滥用,导致XSS或Cookie注入的...

920
来自专栏编程

python爬虫抓取网易云音乐歌词

python爬虫库的选择 如果你已经了解一些python的基础,那不妨来搞点事情做,比如说做个爬虫,python的爬虫库相当的多,我建议初学者从requests...

2509
来自专栏Bug生活2048

利用云开发优化博客小程序(一)——浏览量统计

由于我的博客是基于开源博客框架ghost搭建的,虽然相较于wordpress轻量了很多,但在功能上远没有wordpress丰富,像基本的网站统计,文章统计,点评...

913
来自专栏DeveWork

WordPress免插件仅代码实现文章归档模板 II

不多说了,本站目前使用的效果,可以到我的存档页一览,该方法来自zww,感谢原作者,在这之前,建议你: 1、你的博客存档页面地址后面的应该为/articles,而...

2918
来自专栏WeTest质量开放平台团队的专栏

腾讯内部干货分享——JMeter中3种参数值的传递

小伙伴们在使用JMeter的过程中,肯定会遇到参数值传递的问题,下面来和大家总结下,在使用JMeter做压力测试的时候,常见的3种参数值得传递是怎样的。 (一...

733
来自专栏FreeBuf

打狗棒法之:Cknife(C刀)自定义模式秒过安全狗

免责声明:本站提供安全工具、程序(方法)可能带有攻击性,仅供安全研究与教学之用,风险自负! 0x00 前言 很多朋友在使用Cknife时都误以为她只是菜刀的跨平...

2328
来自专栏前端小记

用字蛛动态遍历JS生成中文字体

字蛛 font-spider 通过分析本地 CSS 与 HTML 文件获取 WebFont 中没有使用的字符,并将这些字符数据从字体中删除以实现压缩,同时生成跨...

49827
来自专栏程序员宝库

主流浏览器图片反防盗链方法总结

还记得之前写的那个无聊的插件,前一段时间由于豆瓣读书增加了防盗链策略使得我们无法直接引用他们的图片,使得我这个小插件无法工作。本以为是一个很简单的问题,但是没想...

1145
来自专栏向治洪

ECMAScript 6 入门简介

ECMAScript 6.0(以下简称ES6)是JavaScript语言的下一代标准,已经在2015年6月正式发布了。它的目标,是使得JavaScript语言...

1777
来自专栏零基础使用Django2.0.1打造在线教育网站

零基础使用Django2.0.1打造在线教育网站(十七):我要学习配置

努力与运动兼备~~~有任何问题可以加我好友或者关注微信公众号,欢迎交流,我们一起进步!

341

扫码关注云+社区