前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Python 简单爬虫抓取糗事百科

Python 简单爬虫抓取糗事百科

作者头像
py3study
发布2020-01-07 11:19:47
3790
发布2020-01-07 11:19:47
举报
文章被收录于专栏:python3python3

    该爬虫主要实现的功能是抓取糗事百科里面的一些段子。

    urllib2可以用urllib2.openurl中设置Request参数,来修改Header头。如果你访问一个网站,想更改User Agent(可以伪装你的浏览器),你就要用urllib2。

    urllib支持设置编码的函数,urllib.urlencode,在模拟登陆的时候,经常要post编码之后的参数,所以要想不使用第三方库完成模拟登录,你就需要使用urllib。但由于该网站禁止抓取,只能使用urllib2。

    BeautifulSoup模块是用Python写的一个HTML/XML的解析器,它可以很好的处理不规范标记并生成剖析树(parse tree)。 它提供简单又常用的导航(navigating),搜索以及修改剖析树的操作。

    至于其中的一个输入功能,可有可无。经过测试,该爬虫能实现对网站内大部分栏目进行抓取,只要简单修改URL即可。

代码语言:javascript
复制
# coding:utf-8
import time
import random
import urllib2
from bs4 import BeautifulSoup

#引入 beautifulsoup模块

#p = 1

#定义 页

代码语言:javascript
复制
url = 'http://www.qiushibaike.com/text/page/'

#定义header

代码语言:javascript
复制
my_headers = [
    'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:39.0) Gecko/20100101 Firefox/39.0',
    'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.1; WOW64; Trident/6.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; .NET4.0E)',
    'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Win64; x64; Trident/5.0)',
    'ELinks/0.12pre5 (textmode; Linux; -)'
]

#获取网页内容

代码语言:javascript
复制
def get_con(url, headers):
    random_header = random.choice(headers)
    req = urllib2.Request(url)
    req.add_header('User-Agent', random_header)
    req.add_header('Host', 'www.qiushibaike.com')
    req.add_header(
        'Referer', 'http://www.qiushibaike.com/')
    req.add_header('GET', 'url')
    content = urllib2.urlopen(req).read()
    return content

#读取每一条信息

代码语言:javascript
复制
def get_txt(haha):
    soup = BeautifulSoup(haha)
    all_txt = soup.find_all('div', class_="content")
    i = 1
    for txt in all_txt:
        cont = str(txt)
        head = cont.find(r'class="content"')
        end = cont.find(r'</div', head)
        con = cont[head + 16:end]
        print str(i), con
        i = i + 1
        time.sleep(3)

#根据输入的数字,确定打印起始页,如果取消该功能则需要定义p。

代码语言:javascript
复制
page = raw_input("Please input a number:")
p = int(page)

#使用while循环打印出所有信息

代码语言:javascript
复制
while p < 36:
    haha = get_con(url + str(p) + '?s=4796159', my_headers)
    print get_txt(haha)
    print "这是第" + str(p) + "页"
    p = p + 1

    正在学习中,正在不断完善中...

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2019-09-13 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档