网站抓取引子-获得网页中的表格

爬虫是都不陌生的一个概念,比如百度、谷歌都有自己的爬虫工具去抓取网站、分析、索引,方便我们的查询使用。

在我们浏览网站、查询信息时,如果想做一些批量的处理,也可以去分析网站的结构、抓取网页、提取信息,然后就完成了一个小爬虫的写作。

网页爬虫需要我们了解的结构、语法特征和结构,以及使用合适的抓取、解析工具。我们这篇先看一个简单的处理,给一个直观的感受:一个函数抓取网页的表格。以后再慢慢解析如何更加定制的获取信息。

HMDB (人类代谢组数据库)收录了很多代谢组的数据,用于代谢组学、临床化学、生物标志物开啊和基本教育等。数据联通化学、临床、分子生物学3个层次,共有114,099个代谢物。

网站提供了多种浏览和查询功能,可以关注不同的疾病、通路、BMI、年龄、性别相关代谢组学。

下图展示的是BMI相关代谢物的数据。

如果我们想把这个表格下载下来,一个办法是一页页的拷贝,大约拷贝十几次,工作量不算太大,但有些无趣。另外一个办法就是这次要说的抓取网页。

R的包中有个函数专用于识别HTML中的表格 (table标签),从而提取元素。具体使用如下:

这样我们就获得了第一页的表格,如果想获得随后的页的呢?鼠标移动经过分页的标签,可以看到URL的规律。

num,每一页就是变换下num;对首页来说,可以写也可以省略,为了批量,一般写上。

这样就获得了所有的表格。

有两点需要注意

为了给被抓取的网站带去较大的访问压力,每抓取一次,最后间歇一段时间。这需要我们自定义一个函数,封装下。

HMDB数据库提供了全数据下载功能,相比于抓取,下载下来数据,自己筛选合并是更好的方式。

问题解决

可能是因为网速或其它问题,有时直接把提供给不一定可以获取结果,下面提供了2额外的方式,供使用。

便捷链接

  • 发表于:
  • 原文链接:http://kuaibao.qq.com/s/20180107G0C3M300?refer=cp_1026

扫码关注云+社区