Scrapy爬取美女图片第四集 突破反爬虫(上)

本周又和大家见面了,首先说一下我最近正在做和将要做的一些事情。

技术方面的事情:本次端午假期没有休息,正在使用flask开发自己的个人博客框架,之后我的技术教程将会陆续更新flask方面的内容,尽可能的形成一套完整的flask开发教程。之后打算再开通一个微信公众号,自己使用python开发微信公众号后台,给大家提供一些生活上的服务,例如及时提醒一些商家优惠信息,跟踪快递,提醒天气等等,大家如果有什么好的想法,可以给我留言,你的点子如果被采用了,将会出现在贡献者名单中。

生活方面的事情:开始重新学习吉他,多了解一些音乐方面的事情,个人感觉自己的艺术细菌滋生的还是蛮快的。尝试去写比较系统的技术文章,由浅入深,力求最后能形成书籍。

好了,废话不多说,咱们进入今天的主题。前几篇文章,讲述了scrapy爬取美女图片和代理的内容,因为之前的写的爬取代码,在爬取到1000张图片左右就会被ban,所以咱们今天讲解的是使用VPN + Tor来突破反爬虫机制。

根据scrapy官方文档:http://doc.scrapy.org/en/master/topics/practices.html#avoiding-getting-banned里面的描述,要防止scrapy被ban,主要有以下几个策略。

一般前三个策略是必须要做的,然后咱们在选择使用代理ip池,就可以绕过绝大部分的网站的反爬虫机制。

基于咱们之前写的jiandan_2(https://github.com/qiyeboy/jiandan_2)的代码,咱们进行一下改动,需要写一个中间件。在原有工程的基础上,添加middlewares包,同时在包中写入RandomProxy.py(用来设置代理ip),RandomUserAgent(用来动态设置user agent)。


第一步动态设置user agent:

http请求头中user agent包含了我们使用的浏览器和操作系统的一些信息,很多网站通过判断user agent内容来确定用户的,所以咱们要动态设置user agent,来假装自己是很多用户。来看一下代码:

#coding:utf-8

import random
'''
这个类主要用于产生随机UserAgent
'''

class RandomUserAgent(object):

    def __init__(self,agents):
        self.agents = agents

    @classmethod
    def from_crawler(cls,crawler):
        return cls(crawler.settings.getlist('USER_AGENTS'))#返回的是本类的实例cls ==RandomUserAgent

    def process_request(self,request,spider):
        request.headers.setdefault('User-Agent', random.choice(self.agents))

user agent的值,我在setting.py中已经设置好了。

USER_AGENTS = [
    "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; AcooBrowser; .NET CLR 1.1.4322; .NET CLR 2.0.50727)",
    "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0; Acoo Browser; SLCC1; .NET CLR 2.0.50727; Media Center PC 5.0; .NET CLR 3.0.04506)",
    "Mozilla/4.0 (compatible; MSIE 7.0; AOL 9.5; AOLBuild 4337.35; Windows NT 5.1; .NET CLR 1.1.4322; .NET CLR 2.0.50727)",
    "Mozilla/5.0 (Windows; U; MSIE 9.0; Windows NT 9.0; en-US)",
    "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Win64; x64; Trident/5.0; .NET CLR 3.5.30729; .NET CLR 3.0.30729; .NET CLR 2.0.50727; Media Center PC 6.0)",
    "Mozilla/5.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; .NET CLR 1.0.3705; .NET CLR 1.1.4322)",
    "Mozilla/4.0 (compatible; MSIE 7.0b; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; InfoPath.2; .NET CLR 3.0.04506.30)",
    "Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN) AppleWebKit/523.15 (KHTML, like Gecko, Safari/419.3) Arora/0.3 (Change: 287 c9dfb30)",
    "Mozilla/5.0 (X11; U; Linux; en-US) AppleWebKit/527+ (KHTML, like Gecko, Safari/419.3) Arora/0.6",
    "Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.8.1.2pre) Gecko/20070215 K-Ninja/2.1.1",
    "Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9) Gecko/20080705 Firefox/3.0 Kapiko/3.0",
    "Mozilla/5.0 (X11; Linux i686; U;) Gecko/20070322 Kazehakase/0.4.5",
    "Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.8) Gecko Fedora/1.9.0.8-1.fc10 Kazehakase/0.5.6",
    "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11",
    "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_3) AppleWebKit/535.20 (KHTML, like Gecko) Chrome/19.0.1036.7 Safari/535.20",
    "Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; fr) Presto/2.9.168 Version/11.52",
]

第二步 禁用cookie,在setting.py中添加

COOKIES_ENABLED=False

第三步设置延迟下载,在setting.py中添加

DOWNLOAD_DELAY=2

第四步设置代理:

之前爬取的代理,发现稳定性太差,果然是免费提供的,所以我就直接弃用了。自己买了一个VPN(主要是为了翻墙使用Tor),然后在配上Tor,就可以形成一个ip地址池。

首先连接上vpn,我买的是一个美国的地址 。

然后连接Tor(Tor的安装教程网上太多了)。

由于Tor使用的是sock代理方式(绑定了9050端口),我们的http请求不能直接通过它,所以要使用一个http转sock的代理软件polipo(无需安装)。

配置一下config.sample:

socksParentProxy = "localhost:9050"

socksProxyType = socks5

diskCacheRoot = ""

使用cmd命令运行该目录下的程序:polipo.exe -c config.sample(监听8123端口)

最后咱们在setting.py中添加

HTTP_PROXY ='http://127.0.0.1:8123'#使用Tor

最后看一下RandomProxy.py代码:

#coding:utf-8
import random
from jiandan import settings
from jiandan.db.db_helper import DB_Helper

'''
这个类主要用于产生随机代理
'''
class RandomProxy(object):

    def __init__(self):#初始化一下数据库连接
        self.db_helper = DB_Helper()
        self.count =self.db_helper.proxys.count()

    def process_request(self, request, spider):
        '''
        在请求上添加代理
        :param request:
        :param spider:
        :return:
        '''
        # idList = range(1,self.count+1)
        # id = random.choice(idList)
        # result = self.db_helper.findOneResult({'proxyId':id})
        request.meta['proxy'] =settings.HTTP_PROXY

最后运行程序,开始下载。由于Tor网速较慢,下载了3万张图片花了一天左右。。。。

不过没有发生被ban掉的情况。

完整的代码我已经上传到github上:
https://github.com/qiyeboy/jiandan_2
今天的分享就到这里,如果大家觉得还可以呀,记得赞赏呦。

原文发布于微信公众号 - 七夜安全博客(qiye_safe)

原文发表时间:2016-06-12

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏GuZhenYin

一步步学习EF Core(3.EF Core2.0路线图)

前言 这几天一直在研究EF Core的官方文档,暂时没有发现什么比较新的和EF6.x差距比较大的东西. 不过我倒是发现了EF Core的路线图更新了,下面我们就...

2049
来自专栏生信技能树

HiC数据分析实战之Hic-pro

现在才正式开始数据处理实战,其中实战的测试数据,参考基因组以及对应的软件安装都是在第3讲:流程及软件 。看懂了这些准备工作,现在就可以跟我一起来一步步走通Hic...

2402
来自专栏有趣的django

21天打造分布式爬虫-数据解析实战(三)

903
来自专栏FreeBuf

Windows小工具:LnkDown快捷方式加载Payload

前言 投稿一次,被小编退了,原因是不够扯。我就是小学没毕业的小学生,你让我扯,我去哪跟你扯的天花乱坠啊,使出洪荒之力我就再扯一次吧。还是要感谢下FREEBUF上...

1827
来自专栏Jack-Cui

Python3网络爬虫(十):这个帅哥、肌肉男横行的世界(爬取帅哥图)

运行平台: Windows Python版本: Python3.x IDE: Sublime text3 1 前言     之前,感觉网上类似于《爬取...

1946
来自专栏Java学习123

互联网各种免费接口整理

40711
来自专栏不止思考

RAID磁盘阵列是什么(一看就懂)

在单机时代,采用单块磁盘进行数据存储和读写的方式,由于寻址和读写的时间消耗,导致I/O性能非常低,且存储容量还会受到限制。另外,单块磁盘极其容易出现物理故障,经...

604
来自专栏SmartSql

SmartSql 常见问题

SmartSql 希望 开发人员更多的接触 Sql ,获得绝对的控制权与安全感。所以目前没有计划支持 Code First 编程模式。

1313
来自专栏张善友的专栏

更强悍的Silverlight: WCF RIA Services

如果你安装了 VS 2010 的 Silverlight 4 开发工具,会发现一项重量级的安装项目,WCF RIA Services,用于Silverlight...

18610
来自专栏伪君子的梦呓

使用 Python 伪造数据

0 前言 某些时刻,因为个人数据不想泄露出去,所以需要伪造一下数据;也有使用爬虫的时候需要换一下 user agent ,一个用到旧会被发现,最后就是被封结尾...

3358

扫码关注云+社区