大神自动化抓取400亿条秀恩爱和吐槽

能利用爬虫技术做到哪些很酷很有趣很有用的事情?

2011 年夏天我在 Google 实习的时候做了一些 Twitter 数据相关的开发,之后我看到了一篇关于利用 Twitter 上人的心情来预测股市的论文。实习结束后我跟几个朋友聊了聊,我就想能不能自己做一点 Twitter 的数据挖掘,当时只是想先写个爬虫玩玩,没想最后开发了两年多,抓取了一千多万用户的 400 亿条 tweet。

分析篇

先给大家看一些分析结果吧。大家几点睡觉呢?我们来统计一下 sleep 这个词在 Twitter 上出现的频率。

看来很多人喜欢在睡前会说一声我睡了。那我们再看一个更有意思的 : “Thursday”这个词的每天出现的频率。

这里 2 月 2 号是周四,不出意料,这一天提到周四的频率最高。而且好像离周四越近这个频率越高。可是,为什么 2 月 1 号的频率反而低了呢?是因为 2 月 1 号大家不说周四而说明天了(有的人会说 2 月 2 号也可以说是今天,但是因为在 2 月 2 号提到当天的次数太高,因此还是有很多人用周四这个词)。

做了词频统计我们还可以做一些语义分析。我们可以利用 unsupervised learning 来分析一条 tweet 的感情色彩。我们对每一条 tweet 的高兴程度在 0 至 1 之间打分,并对每天做平均值,就得到了下面这张图。这里最明显的特征恐怕就是周期性了。是的,大家普遍周末比较高兴。不过这张图的开始和中间有两个点与周期不吻合。如果我告诉你这两天是 1 月 1 日和 2 月 14 日,那你肯定会想到为什么了,元旦和情人节很多人是很高兴的(不排除 slient majority 存在的可能)。

这很有意思,但似乎没什么用啊。那我们来看下面这张图,还是 2012 年的情感分析,不过这里对用户进行了过滤,只保留了来自投资人和交易员的 tweet (根据用户的 tweet 我们可以估计他 / 她的职业)。蓝线是这些用户的感情色彩,红线是 S&P 500 指数。看来行情好的时候大家都高兴啊。

最后我们再来看两个统计图吧。2012 年是美国大选年,这里统计了在所有和奥巴马相关的 tweet 里跟提到经济的 tweet 占的比例。红线是这个比例,黑线是 S&P 500

貌似和美国经济有负相关性啊!为什么呢,我们看下面的图就明白了。这个比例和美国失业率正相关,而经济和失业率又是负相关的。换句话说,美国人(尤其是共和党的)找不到工作了就开始埋怨奥巴马了。

除了上面的分析外我做了很多其他的研究,比如如何判断一个用户的职业,验证六度分隔理论, 以及网络扩张速度的建模,不过这里就先不赘述了。

最后要说的是以上的分析在统计上都是不严谨的,Twitter 上的信息杂音非常大,又有很强的 demographic bias,有很多因素都没有考虑。我们只能希望大数定律能过弥补一些误差。写在这里只是抛砖引玉,给大家看一下爬虫可以做什么。大家感兴趣的话之后我可以补充一下这两个话题:

1、怎样判断一条 tweet 的感情色彩 2、怎样估计一个 Twitter 用户的职业

技术篇

当时 Twitter 用户大概已经有上亿了,每天新的 tweet 也有几千万甚至上亿。能不能把这些数据全部抓取下来呢?这是可能的。Twitter 是有 API 的,不过每个 IP 地址每小时可以抓取 150 个用户最近的 tweet,以这个速度要把几亿个用户抓取一遍需要近一百年。但是,大部分 Twitter 用户是不活跃甚至从来不发 tweet 的,还有很多用户是印尼等国家(不是他们不重要,我真的看不懂他们发的 tweet),如果我们把不说英语,不发 tweet 以及 follow 人数不超过 5 个(好像注册 Twitter 后用户会被要求 follow 5 个人)的用户过滤掉,我们就剩下了大约 10,000,000 个用户,十年就可以搞定了。

十年好像还是太长了……不过 twitter 的访问限制是基于 IP 地址的,只要我从多个 IP 访问 Twitter 不久好了(我真的没有 DDOS twitter 的意思啊)。那么下一步就是搜集大量代理服务器来访问 Twitter api。为了做 twitter 的爬虫我专门做了一个爬虫去搜集免费代理服务器。免费的东西总是有代价的,这些服务器非常不稳定。因此我又建立了一套代理服务器管理系统,定期更新 IP 地址,删除不能用的服务器。最后这套系统平均每天有几百个可用的服务器,大约半个月就可以把一千万个用户抓取一遍了。

此外我又做了一些动态优化,根据 Twitter 用户的 follower 数量决定他们的抓取频率,以提高重要用户 tweet 的实时性。

在一年半的时间里,这套系统一共抓取了 400 亿条 tweet,加起来得有 10TB,估计占来自美国 tweet 数量的一半左右。那么问题来了,怎么存贮这些 tweet 呢?如果要做分析的话恐怕把数据读一遍就要好几天了。很多人马上会说 hadoop, cassandra, spark 等等。不过作为一个穷学生我哪里有钱去做一个 cluster 呢?这些数据存在 AWS 上就得每月 1000 刀了。

自己动手,丰衣足食。解决方案就是自己组装一个服务器,买了 8 块 3T 硬盘做了一个 12TB 的磁盘矩阵放在寝室里。

软件使用了最为传统的 MySQL,这是一个存了 400 亿条数据的 MySQL 数据库。我花了大量时间去做优化,尝试了各种各样的 partition, ordering, indexing。最后可以实现一天之内对 100-200 亿条数据进行线型搜索或过滤,或者几秒钟内调取某一天的或某一条 tweet。

这台服务器现在留在了 MIT,毕业后我把它提供给了一位教授做研究。

PS:

这个项目在2013年停止了,因为social media已经不在火,而且twitter于2013年中关闭了相关的API接口。

这个项目的初衷是学术性质的,我不想违反twitter的服务条款,因此这些数据没有被出售或者用来谋求商业价值,而是留给了MIT做研究。

在这期间与几个朋友进行了很愉快的合作,未征得他们允许就不在此提名了。

暂时没有开源的打算,因为当时水平有限,代码写得太丑了(用java写的)。

很多人问怎么找代理服务器,请大家google一下吧。当然如果不能翻墙的话有代理服务器恐怕也不能用。

Via:炼数成金

原文发布于微信公众号 - CSDN技术头条(CSDN_Tech)

原文发表时间:2015-05-21

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏程序人生 阅读快乐

云计算安全指南 (图灵程序设计丛书)

把计算机当做接入口,一切都交给互联网吧!最大程度地降低成本,最大程度地享受服务,云计算就是要将各种IT资源以服务的方式通过互联网交付给用户,这包括但不局限于计算...

1092
来自专栏罗超频道

今天不矫情,明天成贱人

首先表明立场:不软,不跟风。笔者想写隐私源于Facebook发布GraphSearch,现在跟各位分享这段时间的想法。今天虎嗅的一篇文章《贱人就是矫情——当打假...

2768
来自专栏FreeBuf

物理Hacking之通过摄影收集情报

*免责声明:本文提供的工具和方法仅供安全研究用途,禁止非法用途 介绍 在渗透过程中的第一阶段就是尽可能的多收集关于目标的信息。实际上这是进行渗透时最关键的步骤之...

1865
来自专栏VRPinea

三星C-Lab将在WMC 2017上展示4个VR/AR项目

2864
来自专栏飞雪无情的博客

跨维度的打击,是可以直接秒杀的

大学玩《魔兽世界》,同样70级,野外相遇,一身紫套可以直接秒你一身绿的,没啥原因,差距太大,可以无视你的风骚操作技术,只要让碰到一下,直接秒杀。

861
来自专栏美团技术团队

互联网公司数据安全保护新探索

3498
来自专栏PPV课数据科学社区

【学习】利用爬虫技术能做到哪些很酷、很有趣、很有用的事情?

分析篇 先给大家看一些分析结果吧。大家几点睡觉呢? 我们来统计一下 sleep 这个词在 Twitter 上出现的频率。 看来很多人喜欢在睡前会说一声我睡了。那...

4687
来自专栏云计算D1net

运行业务需要更加了解云成本

这篇文章可能会吸引一些业务领域的人士的关注,但所面临的挑战是如何使这个无聊的话题发挥得更加淋漓尽致。那么所要说的是什么?云计算成本! 如今,成本似乎推动了大多数...

3296
来自专栏PPV课数据科学社区

你的爬虫会送老板进监狱么

各互金公司CTO们请看好你们家的爬虫,要不然一不小心就会把老板(法人代表)送进监狱,不是闹着玩的,按2017年6月1日,《网络安全法》以及最新刑事司法解释: -...

3726
来自专栏木子昭的博客

GitHub与新人类

2050年,人类迈入新人类文明时代 新人类与超级计算机(代号Github)共同进化,世界观也变得有趣 关于生命终结 旧人类 第一阶段 是医学上宣告死亡 第二...

3398

扫码关注云+社区