【腾讯云的1001种玩法】云服务器搭建Python爬虫环境

在上一篇文章中,我们已经学会了在腾讯云服务器上搭建Python环境了,假设你已经在腾讯云服务器上搭建好了Python环境,我们将进入下一步:搭建Python爬虫环境。

一直在终端编写Python爬虫是不现实的,除非你在学习阶段,当我们要正式开始编写爬虫的时候我们理所应当的需要一个爬虫环境了。

第一部分:搭建爬虫环境

考虑到学习、使用便捷,我们将使用Sublime Text3开发爬虫:https://www.sublimetext.com/3 ,进入Sublime Text3官网,按照你的系统下载相应的版本,我这里下载的是Windows 64位的。

下载好之后,安装setup

Next

选择安装目录,点击next

勾选上:Add to explorer contect menu,点击next,最后点击Installer/Finish,安装完成。安装完成之后到你之前配置的安装目录打开Sublime Text3,你也可以复制一个快捷方式到桌面方便以后使用。

现在你就可以使用Sublime Text来编写Python了,如若有什么不懂的地方可以访问Sublime Text的官网查看文档。编写完Python代码之后,F7运行Python脚本,第一次运行的时候会出现以下界面,选择的一个行的Python即可。

第二部分:学会安装Python库

Python适合做爬虫是因为:有无数的开源作者无私的在Python开源社区做贡献,强大的Python库为我们提供了很多便捷的操作。有三种方法安装Python库,具体方法可以访问:http://blog.csdn.net/jerry_1126/article/details/46574045

Python中绝大部分的库都可以使用pip进行安装,pip也是最简单的安装方法,使用pip安装第三方库只需要使用命令:pip install + 库名,比如我需要安装一个叫bs4的库,我只需要在终端执行pip install bs4

出现:Successfully collected packages:则表示安装成功。

第三部分:你不得不知的Python库

在编写爬虫的时候我们可能需要以下一些比较常用的库,这里我们做一个简单的介绍,方便后续的使用。

1、Requests

Requests 是用Python语言编写,基于 urllib,采用 Apache2 Licensed 开源协议的 HTTP 库。它比 urllib 更加方便,可以节约我们大量的工作,完全满足 HTTP 测试需求。Requests 的哲学是以 PEP 20 的习语为中心开发的,所以它比 urllib 更加 Pythoner

安装命令:pip install resquests

2、Beautifulsoup4

Beautiful Soup提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序

安装命令:pip install bs4

3、Lxml

python lxml包用于解析XML和html文件,可以使用xpath和css定位元素

安装方法:pip install lxml

第四部分:寻找你需要的Python库

当以上库不能满足你需求的时候,你就需要学会自己寻找Python库了。首先访问一个git项目:https://github.com/vinta/awesome-python

在这个项目中,作者把所有的Python资源包括库资源等分成了几十个大类:数据挖掘、数据可视化、日期和时间处理、数据库相关……等等,在每个大类中归类了该类下的所有资源,并且该资源的首页有各个大类的索引。

在这个大背景之下,假设我现在想找一个Python操作MongoDB的库,我们就首先点击最上面的索引:Database Drivers直接跳转到数据库相关库的地方。

跳转之后,如下界面,我们就可以直接寻找到我们需要的库了。

当然,因为所有的资源都在同一个页面,所以我们同时可以使用浏览器自带的搜索功能,在Chrome下是Ctrl+F12,在该页面直接搜我们需要的某个功能关键词,比如:MongoDB,

当然,这样搜索出来的结果可能不仅仅是一条,就需要你自己排查以下哪一个才是你真正那个需要的库资源了。

相关推荐

【腾讯云的1001种玩法】云服务器搭建Python环境

Python操作Redis - 云爬虫初探

腾讯云主机Python3环境安装PySpider爬虫框架过程

原创声明,本文系作者授权云+社区发表,未经许可,不得转载。

如有侵权,请联系 yunjia_community@tencent.com 删除。

编辑于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏张戈的专栏

Python 远程控制模块 paramiko 问题解决记录

生产环境中使用paramiko作SSH远程控制时,发现会有部分机器报Error reading SSH protocol banner错误,尝试使用ssh命令连...

6.7K20
来自专栏社区的朋友们

深度学习入门实战(一):像Prisma一样算法生成梵高风格画像

现在人工智能是个大热点,而人工智能离不开机器学习,机器学习中深度学习又是比较热门的方向,本系列文章就从实战出发,介绍下如何使用MXnet进行深度学习~

10.4K30
来自专栏唐郑望的专栏

Django数据处理的一些实践

提到 Django 肯定避不开 MVC 模式,即模型(Model)-视图(View)-控制器(Controller),通过将业务逻辑、数据、界面显示分离的方法组...

38210
来自专栏钟志远的专栏

【腾讯云的1001种玩法】云服务器搭建Python环境

之前一直在用阿里云服务器跑爬虫、小脚本。这两天在朋友的安利下转到了腾讯云上面来,刚好趁这个机会写一写有关于云服务器上Python爬虫环境的搭建。

7.1K60
来自专栏张宁的专栏

反爬虫和抗DDOS攻击技术实践

企鹅媒体平台媒体名片页反爬虫技术实践,分布式网页爬虫技术、利用人工智能进行人机识别、图像识别码、频率访问控制、利用无头浏览器PhantomJS、Selenium...

2K10
来自专栏腾讯移动品质中心TMQ的专栏

如何轻松爬取网页数据?

在实际工作中,难免会遇到从网页爬取数据信息的需求,如:从微软官网上爬取最新发布的系统版本。很明显这是个网页爬虫的工作。本文将根据网站特性进行分类介绍几种使用py...

5K20
来自专栏崔庆才的专栏

腾讯云主机Python3环境安装Scrapy爬虫框架过程及常见错误

Scrapy安装介绍Scrapy的安装有多种方式,它支持Python2.7版本及以上或Python3.3版本及以上。下面说明Python3环境下的安装过程。Sc...

2.6K10
来自专栏社区的朋友们

深度学习入门实战(二):用TensorFlow训练线性回归

上一篇文章我们介绍了 MxNet 的安装,但 MxNet 有个缺点,那就是文档不太全,用起来可能是要看源代码才能理解某个方法的含义,所以今天我们就介绍一下 Te...

6.4K10
来自专栏胖胖的专栏

实战干货:从零快速搭建自己的爬虫系统

本文简要归纳了网页爬虫的基础知识,着重于利用现有组件,快速建立一套实际可用的网页爬取、分析系统。系统主要使用Python 作为开发语言,在 Linux 或 Ma...

4.5K40

扫码关注云+社区

领取腾讯云代金券

年度创作总结 领取年终奖励