前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Python爬虫-01:爬虫的概念及分类

Python爬虫-01:爬虫的概念及分类

作者头像
py3study
发布2020-01-19 16:05:12
1.3K0
发布2020-01-19 16:05:12
举报
文章被收录于专栏:python3python3

目录

  • # 1. 为什么要爬虫?
  • 2. 什么是爬虫?
  • 3. 爬虫如何抓取网页数据?
    • # 4. Python爬虫的优势?
  • 5. 学习路线
  • 6. 爬虫的分类
    • 6.1 通用爬虫:
    • 6.2 聚焦爬虫:

# 1. 为什么要爬虫?

“大数据时代”,数据获取的方式:

  • 大型企业公司有海量用户,需要收集数据来提升产品体验 【百度指数(搜索),阿里指数(网购),腾讯数据(社交)】
  • 数据管理咨询公司: 通过数据团队专门提供大量数据,通过市场调研,问卷调查等
  • 政府/机构提供的公开数据
    • 中华人民共和国统计局
    • World bank
    • Nasdaq
  • 第三方数据平台购买数据
    • 数据堂
    • 贵阳大数据交易平台
  • 爬虫数据

2. 什么是爬虫?


抓取网页数据的程序

3. 爬虫如何抓取网页数据?


首先需要了解网页的三大特征:

  1. 每个网页都有自己的URL(统一资源定位符)来定位
  2. 网页都使用HTML(超文本标记语言)来描述页面信息
  3. 网页都使用HTTP/HTTPS(超文本传输协议)来传输HTML数据

爬虫的设计思路:

  1. 首先确定需要爬取的网URL地址
  2. 通过HTTP/HTTPS协议来获取对应的HTML页面
  3. 提取HTML页面内有用的数据:

a. 如果是需要的数据--保存

b. 如果有其他URL,继续执行第二步

# 4. Python爬虫的优势?

语言

优点

缺点

PHP

世界上最好的语言

对多线程,异步支持不好,并发处理不够

Java

网络爬虫生态圈完善

Java语言本身笨重,代码量很大,数据重构成本高

C/C++

运行效率和性能几乎最强

学习成本很高

python

语法优美,代码简洁,开发效率高,模块多

5. 学习路线


  1. 抓取HTML页面:
  • HTTP请求的处理: urllib, urlib2, requests
  • 处理器的请求可以模拟浏览器发送请求,获取服务器响应的文件
  1. 解析服务器相应的内容:
  • re, xpath, BeautifulSoup(bs4), jsonpath, pyquery等
  • 使用某种描述性语言来给我们需要提取的数据定义一个匹配规则,符合这个规则的数据就会被匹配
  1. 采集动态HTML,验证码的处理
  • 通用动态页面采集: Selenium + PhantomJS:模拟真实浏览器加载JS
  • 验证码处理: Tesseract机器学习库,机器图像识别系统
  1. Scrapy框架:
  • 高定制性,高性能(异步网络框架twisted)->数据下载快
  • 提供了数据存储,数据下载,提取规则等组件
  1. 分布式策略:
  • scrapy redis:在scarpy基础上添加了以redis数据库为核心的一套组件,主要在redis做请求指纹去重、请求分配、数据临时存储
  1. 爬虫、反爬虫、反反爬虫之间的斗争:
  • User-Agent, 代理, 验证码, 动态数据加载, 加密数据

6. 爬虫的分类


6.1 通用爬虫:

1.定义: 搜索引擎用的爬虫系统 2.目标: 把所有互联网的网页爬取下来,放到本地服务器形成备份,在对这些网页做相关处理(提取关键字,去除广告),最后提供一个用户可以访问的借口

3.抓取流程:

a) 首先选取一部分已有的URL, 把这些URL放到带爬取队列中

b) 从队列中取出来URL,然后解析NDS得到主机IP,然后去这个IP对应的服务器里下载HTML页面,保存到搜索引擎的本地服务器里,之后把爬过的URL放入已爬取队列

c) 分析网页内容,找出网页里其他的URL连接,继续执行第二步,直到爬取结束

4.搜索引擎如何获取一个新网站的URL:

  1. 主动向搜索引擎提交网址: https://ziyuan.baidu.com/linksubmit/index
  2. 在其他网站设置网站的外链: 其他网站上面的友情链接
  3. 搜索引擎会和DNS服务商进行合作,可以快速收录新网站

5.通用爬虫注意事项 通用爬虫并不是万物皆可以爬,它必须遵守规则: Robots协议:协议会指明通用爬虫可以爬取网页的权限

我们可以访问不同网页的Robots权限

6.通用爬虫通用流程:

7.通用爬虫缺点

  1. 只能提供和文本相关的内容(HTML,WORD,PDF)等,不能提供多媒体文件(msic,picture, video)及其他二进制文件
  2. 提供结果千篇一律,不能针对不同背景领域的人听不同的搜索结果
  3. 不能理解人类语义的检索
  4. 聚焦爬虫的优势所在

DNS 域名解析成IP: 通过在命令框中输入ping www.baidu.com,得到服务器的IP

DNS实例
DNS实例

6.2 聚焦爬虫:

爬虫程序员写的针对某种内容的爬虫-> 面向主题爬虫,面向需要爬虫

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2019-04-29 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • # 1. 为什么要爬虫?
  • 2. 什么是爬虫?
  • 3. 爬虫如何抓取网页数据?
    • # 4. Python爬虫的优势?
    • 5. 学习路线
    • 6. 爬虫的分类
      • 6.1 通用爬虫:
        • 6.2 聚焦爬虫:
        相关产品与服务
        验证码
        腾讯云新一代行为验证码(Captcha),基于十道安全栅栏, 为网页、App、小程序开发者打造立体、全面的人机验证。最大程度保护注册登录、活动秒杀、点赞发帖、数据保护等各大场景下业务安全的同时,提供更精细化的用户体验。
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档