前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >技术 | Python从零开始系列连载(二十九)

技术 | Python从零开始系列连载(二十九)

作者头像
灯塔大数据
发布2018-12-14 11:14:22
2990
发布2018-12-14 11:14:22
举报
文章被收录于专栏:灯塔大数据灯塔大数据

导读

为了解答大家学习Python时遇到各种常见问题,小灯塔特地整理了一系列从零开始的入门到熟练的系列连载,每周五准时推出,欢迎大家学积极学习转载~

写爬虫防止被封的关键有以下几点:

  1. 伪装请求报头(request header)
  2. 减轻访问频率,速度
  3. 使用代理IP

一般第一点都能做到,第二点减轻访问频率就会大大增加任务时间,而使用代理就能在不增加任务时长避免被封的关键(实际情况却是任务时间因为代理的使用而增加的,但这里不细说,知道就好)。

下面我们从 国内高匿代理IP 获得代理IP数据。
代码语言:javascript
复制
import os
import time
import requests
from bs4 import BeautifulSoup

#num获取num页 国内高匿ip的网页中代理数据
def fetch_proxy(num):
    #修改当前工作文件夹
    os.chdir(r'/Users/apple888/PycharmProjects/proxy IP')
    api = 'http://www.xicidaili.com/nn/{}'
    header = {
    'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_3) AppleWebKit/'
                  '537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36'}
    fp = open('host.txt', 'a+', encoding=('utf-8'))
    for i in range(num+1):
        api = api.format(1)
        respones = requests.get(url=api, headers=header)
        soup = BeautifulSoup(respones.text, 'lxml')
        container = soup.find_all(name='tr',attrs={'class':'odd'})
        for tag in container:
            try:
                con_soup = BeautifulSoup(str(tag),'lxml')
                td_list = con_soup.find_all('td')
                ip = str(td_list[1])[4:-5]
                port = str(td_list[2])[4:-5]
                IPport = ip + '\t' + port + '\n'
                fp.write(IPport)
            except Exception as e:
                print('No IP!')
        time.sleep(1)
    fp.close()

我们准备抓 国内高匿代理IP网 的十个页面的代理

代码语言:javascript
复制
fetch_proxy(10)

当前工作目录下的文件,你看!!有host.txt

打开host.txt,收集到了很多代理IP

但是有代理IP还不行,因为我们不知道这代理能不能用,是否有效。

下面我们用百度网进行检验(大公司不怕咱们短时间内高频率访问),上代码:
代码语言:javascript
复制
import os
import time
import requests
from bs4 import BeautifulSoup
def test_proxy():
    N = 1
    os.chdir(r'/Users/apple888/PycharmProjects/proxy IP')
    url = 'https://www.baidu.com'
    fp = open('host.txt', 'r')
    ips = fp.readlines()
    proxys = list()
    for p in ips:
        ip = p.strip('\n').split('\t')
        proxy = 'http:\\' + ip[0] + ':' + ip[1]
        proxies = {'proxy': proxy}
        proxys.append(proxies)
    for pro in proxys:
        try:
            s = requests.get(url, proxies=pro)
            print('第{}个ip:{} 状态{}'.format(N,pro,s.status_code))
        except Exception as e:
            print(e)
        N+=1

运行该代码,效果如下

代理Ip池生成函数
代码语言:javascript
复制
#生成代理池子,num为代理池容量
def proxypool(num):
    n = 1
    os.chdir(r'/Users/apple888/PycharmProjects/proxy IP')
    fp = open('host.txt', 'r')
    proxys = list()
    ips = fp.readlines()
    while n<num:
        for p in ips:
            ip = p.strip('\n').split('\t')
            proxy = 'http:\\' + ip[0] + ':' + ip[1]
            proxies = {'proxy': proxy}
            proxys.append(proxies)
            n+=1
    return proxys
下面开始爬豆瓣电影的电影数据,我们要获取 电影名、演员、评分。

电影标签页 https://movie.douban.com/tag/

烂片详情页https://movie.douban.com/tag/烂片

烂片详情页

我们就只爬烂片标签页的部分数据吧,网页链接规律如下

第一页https://movie.douban.com/tag/烂片?start=0 第二页https://movie.douban.com/tag/烂片?start=20 第三页https://movie.douban.com/tag/烂片?start=40 开始上代码

代码语言:javascript
复制
def fetch_movies(tag, pages, proxys):
    os.chdir(r'/Users/apple888/PycharmProjects/proxy IP/豆瓣电影')
    url = 'https://movie.douban.com/tag/爱情?start={}'
    headers = {
    'User-Agent': 'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/'
                  '537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Mobile Safari/537.36'}

    #用csv文件保存数据
    csvFile = open("{}.csv".format(tag), 'a+', newline='', encoding='utf-8')
    writer = csv.writer(csvFile)
    writer.writerow(('name', 'score', 'peoples', 'date', 'nation', 'actor'))

    for page in range(0, pages*(20+1), 20):
        url = url.format(tag, page)
        try:
            respones = requests.get(url, headers=headers, proxies=random.choice(proxys))
            while respones.status_code!=200:
                respones = requests.get(url, headers=headers, proxies=random.choice(proxys))
            soup = BeautifulSoup(respones.text, 'lxml')
            movies = soup.find_all(name='div', attrs={'class': 'pl2'})
            for movie in movies:
                movie = BeautifulSoup(str(movie), 'lxml')
                movname = movie.find(name='a')
                # 影片名
                movname = movname.contents[0].replace(' ', '').strip('\n').strip('/').strip('\n')
                movInfo = movie.find(name='p').contents[0].split('/')
                # 上映日期
                date = movInfo[0][0:10]
                # 国家
                nation = movInfo[0][11:-2]
                actor_list = [act.strip(' ').replace('...', '') for act in movInfo[1:-1]]
                # 演员
                actors = '\t'.join(actor_list)
                # 评分
                score = movie.find('span', {'class': 'rating_nums'}).string
                # 评论人数
                peopleNum = movie.find('span', {'class': 'pl'}).string[1:-4]
                writer.writerow((movname, score, peopleNum, date, nation, actors))
        except:
            continue
        print('共有{}页,已爬{}页'.format(pages, int((page/20))))

执行上述写好的代码

代码语言:javascript
复制
import time
start = time.time()
proxyPool= proxypool(50)
fetch_movies('烂片', 111, proxyPool)
end = time.time()
lastT = int(end-start)
print('耗时{}s'.format(lastT))

Perfect

好啦,这期的分享先到这里,大家可以按照上面的详细步骤进行练习。加油,我们下周五不见不散~

文章来源:Python爱好者社区

文章编辑:思加

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-11-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 灯塔大数据 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 写爬虫防止被封的关键有以下几点:
  • Perfect
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档