数据挖掘敲门砖-Python爬虫入门

WHAT

数据挖掘是一门综合的技术,随着Ai的兴起,在国内的需求日渐增大。

数据挖掘的职业方向通常有三个,顺便概要地提一下所需的技能(不仅于此)

数据分析方向:需要数理知识支撑,比如概率论,统计学等

数据挖掘方向:需要懂得主流算法的原理及应用,数据库的原理和操作

科学研究方向:通常是科学家们在深入研究数据挖掘的相关基础理论和算法

但是看完简介,好像和爬虫没什么关系?接着往下看。

要开始数据挖掘之路,可以先从培养数据分析能力开始。数据分析的常见步骤是:

数据准备

数据观察(找规律)

数据建模

数据挖掘(将得到的模型选择合适的算法应用到数据上,验证并得出结论)

WHY

据统计,数据准备占整个数据分析70%的时间.我们把数据准备的步骤进行细分:

数据获取: 数据爬虫, 数据仓库

数据清洗: 去掉无用的数据

数据整理: 将数据规格化

数据存储: 先存储为CSV等文件, 最后再将数据进行整理和归档

数据仓库通常是企业级的应用, 对于我们这种初学者获取的难度较高. 而数据爬虫的门槛就很低了, 甚至对于没接触过编程的其他专业的朋友也没有很高的门槛, 这得益于一门语法简单的语言-----Python的流行.

这就是为什么把Python爬虫称作敲门砖的原因啦

HOW

现在我们的目标变成两个, 先会Python, 再会用Python爬虫

Python入门

选择一个合适的教程可以让你少走一些弯路, 在Google上搜索Python教程, 可以收到42万条结果, 排名靠前的菜鸟教程,廖雪峰的Python教程, 以及简明Python教程, 都是适合入门的免费教程

感觉没时间先完全系统地学习? 可以先把下面这些Python知识先掌握, 以后再把其他补上!

list,dict(列表, 字典):用来序列化你爬的东西

切片:用来对爬取的内容进行分割,生成

条件判断(if等):用来解决爬虫过程中哪些要哪些不要的问题

循环和迭代(for while ):用来循环,重复爬虫动作

文件读写操作:用来读取参数、保存爬下来的内容等

了解爬虫

发送请求——获得页面——解析页面——下载内容——储存内容, 这是通常爬虫的五步走.再简化一下步骤, 就是分析目标, 解析页面, 存储内容

分析目标

我们要分析的目标----网页, 它里面的信息只有两种呈现方式:

HTML

JSON

这些信息是我们先向服务器发送请求, 随后服务器返回信息给我们. 有点像我们平时在餐馆吃饭, 你既要POST跟服务器'点菜', 也要GET等服务器'上菜'

解析页面

解析页面有两把利器: 一个是正则表达式, 另一个是选择一些库来帮助我们解析,比如Beautiful Soup

存储内容最后我们通过文件的读写把爬取的内容存储到CSV等文件,或者数据库中. 在一开始, 你也可以选择直接打印到屏幕上,

实践项目

把项目完成之后, 相信你会对爬虫有更好的理解.

今日作者: 光光同学_

不爱看电影的摄影师不是好的程序员

  • 发表于:
  • 原文链接:http://kuaibao.qq.com/s/20180102G0TOOE00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。

扫码关注云+社区

领取腾讯云代金券