没有自己的服务器如何学习生物数据分析(下篇)

编者注:在上篇文章《没有自己的服务器如何学习生物数据分析》上篇,我们对 IBM 云计算平台有了基本了解,也学习了如何对数据进行下载上传以及基本的预处理。 在《没有自己的服务器如何学习生物数据分析》下篇,我们将继续跟随作者的脚步学习如何利用IBM云计算平台处理实际的生物学数据分析问题。题目来自生信技能树论坛,论坛网址:http://biotrainee.com/forum.php/ 如果你没有看过上篇内容,建议你先去阅读没有自己的服务器如何学习生物数据分析(上篇) 祝阅读愉快,下面是文章正文!

首先思考一下提问者的几个问题:

  • 每条染色体基因个数的分布?
  • 所有基因平均有多少个转录本?
  • 所有转录本平均有多个exon和intron?

那如何将这几句话翻译成 SQL 语句呢

  • 每条染色体基因个数的分布?

思考一下,问的其实是:

每个 Chrom 值,对应 几种、不重复的Gene?

    SELECT Chrom, COUNT(DISTINCT(Gene)) FROM GTF    GROUP BY Chrom

"每个" Chrom 意味着 GROUP BY Chrom, 与此同时,前面SELECT 就得加上 Chrom,这样最后的结果才会显示是哪个染色体。

"几种" 翻译成 COUNT,不重复翻译成 "DISTINCT",于是合并后就是 COUNT(DISTINC(Gene))

然后我们要保证只看 Gene Tran Exon 都非空的行,即 WHERE (Gene != "NULL") AND (Tran !="NULL") AND (Exon != "NULL")

于是写出SQL:

    SELECT Chrom, COUNT(DISTINCT(Gene)) FROM GTF    WHERE (Gene != "NULL")  AND (Tran != "NULL") AND (Exon != "NULL")    GROUP BY Chrom

了解更多 SQL 可以在这个网站 https://www.w3schools.com/sql/ 在线学习基本的SQL语句。

SQL 语句在调取 UCSC 数据集中同样作用巨大,具体这里不表。

这句话怎么在 DataFrame 执行?需要先 registerTempTable("GTF")把 df 这个 dataFrame 给 SparkSQL,取一个表名,叫做 “GTF”。这样 df 就可以直接用 SQL语句分析了。

更多内容参考文档http://spark.apache.org/docs/2.0.2/sql-programming-guide.html

代码块【6】:

df.registerTempTable("GTF")sqlDF_genesInEachChr = spark.sql("""    SELECT Chrom, COUNT(DISTINCT(Gene)) AS Cnt FROM GTF    WHERE (Gene != "NULL")  AND (Tran != "NULL") AND (Exon != "NULL")    GROUP BY Chrom""")sqlDF_genesInEachChr.show()

结果:

运行过程时间有点长,请耐心等待。

因为 IBM 的免费机器是 2 核心单机模式,体现不出 Spark 大数据分析的威力。如果你在Spark集群模式下,几台 48 线程的机器上对一个大文件执行SparkSQL(前提是没人使用 + 满CPU使用),在等待的过程中去后台 top 一下,会看见计算节点上全部都是恐怖的 4800% 的 CPU 使用率,共同执行同一个任务。

好啦,SparkSQL 的结果已经只有20+行了,此时可以收进内存里面了。

不过 SparkSQL 的结果是个 DataFrame, R 语言倒是能直接收进去,Python 默认的数据类型,没有这个,怎么办?

来,我们先抑制住重复造轮子、准备自己写一个的冲动,由于我们最开始 Import 了 pandas,这个包引入后, Python 也就支持 DataFrame 了。这里直接用SparkSQL 的 toPandas 方法,就可以得到Pandas 的 DataFrame 了:

代码块【7】:

pd_genesInEachChr = sqlDF_genesInEachChr.toPandas()pd_genesInEachChr.head()

结果:

  • 画图

得到表了,有人要说,你最开始就讲* Jupyter 能画图*,有个包叫做 seaborn 的还跟 ggplot2 一样简单,记忆力强的还念叨着 setstyle('white') 相当于 themebw(),现场画一个呗?

没问题。首先,Pandas 的DataFrame 没有R语言的 factor 这种让人又爱又恨的东西(掉过这个坑的在下面举手)。所以如果要调整顺序,得自己想办法。我就用了高阶函数做这个事情。具体大家参考 廖雪峰大神的Python 教程之匿名函数篇高阶函数篇。简单说, 下面的 lambda 属于匿名函数,对我这种懒人而言不用写 def 定义函数了。map 是对一个列表每个值执行一个函数, reduce 把返回结果一个接在另一个尾巴上。有Python基础的注意,由于 map 返回的是 pandas 的 DataFrame 而不是 Python 默认的list,实际上 reduce 的 append 是 Pandas的append 而不是系统 append。

还不清楚的,这里写一个 shell 的同义语句:

rm input.chrSort.txtfor chr in {1..22} X Y MTdo    grep -w ${chr} input.txt >>input.chrSort.txtdone

代码块【8】:

l_plotChrOrder = map(lambda x: str(x), range(1, 23)) + ['X', 'Y', 'MT']pd_genesInEachChrSort = reduce(lambda x,y: x.append(y),       map(lambda x: pd_genesInEachChr[pd_genesInEachChr['Chrom'] == x], l_plotChrOrder)          )pd_genesInEachChrSort.head()

结果:

代码块【9】:

sns.barplot(data=pd_genesInEachChrSort, x="Cnt", y="Chrom")

结果:

    <matplotlib.axes._subplots.AxesSubplot at 0x7fb1a31e9110>

大家看是不是实现了 ggplot2 的效果?更多例子请查看 seaborn文档

OK,快速解决剩下来的问题:

  • 所有基因平均有多少个转录本?

代码块【10】:

sqlDF_transInEachGene = spark.sql("""    SELECT Gene, COUNT(DISTINCT(Tran)) AS Cnt FROM GTF    WHERE (Gene != "NULL")  AND (Tran != "NULL") AND (Exon != "NULL")    GROUP BY Gene""")pd_transInEachGene = sqlDF_transInEachGene.toPandas()sns.distplot(pd_transInEachGene['Cnt'])

结果:

    <matplotlib.axes._subplots.AxesSubplot at 0x7fb1a09a6bd0>
  • 图片展示效果调整

画好了,拿给老板看,这个肯定得挨骂,不好看啊,长尾效应太明显。Python 作图微调效果如何?好用的话你画一个 0~25 的柱状分布呗?

既然要微调,我就用原始的python 作图 matplotlib 库了,他和 seaborn 的关系如同 R 的 plot 与 ggolot2。

matplotlib 库有非常精美的 gallery,代码拿来就能在jupyter上画,再次强调,如果不显示图像请像我这里最开始import 一样加 %matplotlib inline 魔法。

画之前先简单看下数据分布,类似 R 的 summary

代码块【11】:

pd_transInEachGene['Cnt'].describe()

结果:

    count    57992.000000    mean         3.413143    std          5.103533    min          1.000000    25%          1.000000    50%          1.000000    75%          4.000000    max        170.000000    Name: Cnt, dtype: float64

代码块【12】:

plt.hist(pd_transInEachGene['Cnt'], max(pd_transInEachGene['Cnt']), histtype='bar')plt.xlim(0, 25)

结果:

    (0, 25)

OK,这个应该拿给老板不会挨骂了,下一个问题:

  • 所有转录本平均有多个exon?

代码块【13】:

sqlDF_exonsInEachTran = spark.sql("""        SELECT Tran, COUNT(DISTINCT(Exon))  AS Cnt FROM GTF        WHERE (Gene != "NULL")  AND (Tran != "NULL") AND (Exon != "NULL")        GROUP BY Tran""")pd_exonsInEachTran = sqlDF_exonsInEachTran.toPandas()pd_exonsInEachTran.head()

结果:

代码块【14】:

print("Median Value %d " % (pd_exonsInEachTran.median(0)))plt.hist(pd_exonsInEachTran['Cnt'], max(pd_exonsInEachTran['Cnt']), histtype='bar')plt.xlim(0, 15)

结果:

    Median Value 4     (0, 15)
  • 老板觉得似乎不对,想起了什么……

“这里看的是所有基因,我要你看的是编码基因。那么多非编码的看他干嘛!除了把中位数往下带跑偏影响结果,有什么意义?!”

此时,听话的人就直接 grep protein_coding 去了。而对此,我认为,如果长期以往,只能一直做菜鸟。我们要多长一个心眼,里面不还有 lincRNA 嘛,也挺重要,万一老板哪天让我比一下lincRNA 和编码的,我是不是还得再算一次?万一又要看其他的呢?

防止这种情况,很简单,把基因类型那一列加进去,分不同基因类别,全算出来放那里就好了

如果是用 perl 的 hash表做这件事,就会出来个似乎是(原谅我几年不写perl全忘光了)这样的数据架构:

push(@{$TypeTranExons{$gtype}{$tran}}, $exon);

相信有过这种噩梦般经历的读者此时会是懵逼的。哪地方该有括号,用 $ @ 还是%,小骆驼根本就没有,写错一个就报错,想深入学习,要么去看大神的代码,要么就得去看一本叫做 《Perl高级编程》的书,京东购买链接 在这里,点开发现无货的别急,这本书我几年前学这个的时候,就早已断货了。

Python 就没有这么多规矩,我最早就为的这个转的 python。

TypeTranExons[gtype][tran].append(exon)

当然我们现在有了 pyspark,更不用去折腾 Hash 结构去了,直接在 SQL 里,说人话。

代码块【15】:

pat_gene = '''gene_id\s+\"(\S+)\";'''pat_tran = '''transcript_id\s+\"(\S+)\";'''pat_exon = '''exon_number\s+\"*(\w+)\"*'''pat_type = '''gene_biotype\s+\"*(\w+)\"*'''pattern_gene = re.compile( pat_gene )pattern_tran = re.compile( pat_tran )pattern_exon = re.compile( pat_exon )pattern_type = re.compile( pat_type )def parseEachLineV2(f_line):    match_gene = pattern_gene.search( f_line[-1] )    match_tran = pattern_tran.search( f_line[-1] )    match_exon = pattern_exon.search( f_line[-1] )    match_type = pattern_type.search( f_line[-1] )    gene = "NULL"    tran = "NULL"    exon = "NULL"    gtype = "NULL"    if match_gene:        gene = match_gene.group(1)    if match_tran:        tran = match_tran.group(1)    if match_exon:        exon = match_exon.group(1)    if match_type:        gtype = match_type.group(1)    return [gene, tran, exon, gtype,f_line[0]]rdd = spark.read.text(path_1).rdd\            .filter(lambda x: x.value[0]!= "#")\            .map(lambda x: x.value.split("\t"))\            .map(lambda x: parseEachLineV2(x))rdd.take(5)

结果:

    [[u'ENSG00000223972',      'NULL',      'NULL',      u'transcribed_unprocessed_pseudogene',      u'1'],     [u'ENSG00000223972',      u'ENST00000456328',      'NULL',      u'transcribed_unprocessed_pseudogene',      u'1'],     [u'ENSG00000223972',      u'ENST00000456328',      u'1',      u'transcribed_unprocessed_pseudogene',      u'1'],     [u'ENSG00000223972',      u'ENST00000456328',      u'2',      u'transcribed_unprocessed_pseudogene',      u'1'],     [u'ENSG00000223972',      u'ENST00000456328',      u'3',      u'transcribed_unprocessed_pseudogene',      u'1']]

代码块【16】:

from pyspark.sql.types import *schema2=StructType(    [StructField("Gene",  StringType())] +     [StructField("Tran",  StringType())] +     [StructField("Exon",  StringType())] +    [StructField("Type",  StringType())] +    [StructField("Chrom", StringType())])df2 = sqlCtx.createDataFrame(rdd, schema2)df2.show()

结果:

    +---------------+---------------+----+--------------------+-----+    |           Gene|           Tran|Exon|        Type|Chrom|    +---------------+---------------+----+--------------------+-----+    |ENSG00000223972|           NULL|NULL|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000456328|NULL|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000456328|   1|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000456328|   2|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000456328|   3|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000450305|NULL|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000450305|   1|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000450305|   2|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000450305|   3|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000450305|   4|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000450305|   5|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000450305|   6|transcribed_unpro...|    1|    |ENSG00000227232|           NULL|NULL|unprocessed_pseud...|    1|    |ENSG00000227232|ENST00000488147|NULL|unprocessed_pseud...|    1|    |ENSG00000227232|ENST00000488147|   1|unprocessed_pseud...|    1|    |ENSG00000227232|ENST00000488147|   2|unprocessed_pseud...|    1|    |ENSG00000227232|ENST00000488147|   3|unprocessed_pseud...|    1|    |ENSG00000227232|ENST00000488147|   4|unprocessed_pseud...|    1|    |ENSG00000227232|ENST00000488147|   5|unprocessed_pseud...|    1|    |ENSG00000227232|ENST00000488147|   6|unprocessed_pseud...|    1|    +---------------+---------------+----+--------------------+-----+    only showing top 20 rows

OK, 新的一列成果加入表格,然后写SQL 分析数据。既然要看各种基因类型、每个转录本有几种外显子,那么 GROUP BY 就加一个 Type 列,SELECT 也加一个 Type 列显示出来。

代码块【17】:

df2.registerTempTable("GTF2")sqlDF_exonsInEachTran = spark.sql("""        SELECT Tran, Type, COUNT(DISTINCT(Exon))  AS Cnt FROM GTF2        WHERE (Gene != "NULL")  AND (Tran != "NULL") AND (Exon != "NULL")        GROUP BY Tran, Type""")pd_exonsInEachTran = sqlDF_exonsInEachTran.toPandas()pd_exonsInEachTran.head()

结果:

Pandas 也可以进行分组信息统计,如同 R 的 ddply。

代码块【18】:

pd_sort = pd_exonsInEachTran[['Type', 'Cnt']].groupby(['Type'])\                    .agg([len,np.median, np.mean, np.std])['Cnt']\                    .sort_values(['median'], ascending=False)pd_sort.head()

结果:

再排序画图看看

代码块【19】:

pd_exonsInEachTran_sort = reduce(lambda x,y: x.append(y),     map(lambda x: pd_exonsInEachTran[pd_exonsInEachTran['Type']==x], pd_sort.index[0:10])                        )pd_exonsInEachTran_sort.head()

结果:

最后画一个复杂点的啊

代码块【20】:

fig = plt.figure(figsize=(8, 8))ax1 = fig.add_subplot(121)ax2 = fig.add_subplot(122)sns.boxplot(data=pd_exonsInEachTran_sort, y="Type", x="Cnt", ax=ax1)sns.violinplot(data=pd_exonsInEachTran_sort, y="Type", x="Cnt", ax=ax2, bw=0.5)ax1.set_xlim(0, 20)ax2.set_xlim(-5, 60)ax2.set_yticklabels([])ax2.set_xticks([0, 20, 40, 60])ax2.set_xticklabels([0, 20, 40, 60])ax1.set_title("Boxplot")ax2.set_title("Violinplot")

结果:

    <matplotlib.text.Text at 0x7fb19e203050>

IBM data science 上代码:

https://apsportal.ibm.com/analytics/notebooks/d3400624-fd7f-483b-96f3-b9d07876f455/view?access_token=499996f6a4e6f93e448907bf219bae6310975c0d02521c7c67ef02b79b1ccf77

说明:文中所有 加粗蓝色字体 在作者博客中均为链接,由于微信的限制无法点击,可以点击阅读原文查看作者博客。

编者写在最后:

通过《没有自己的服务器如何学习生物数据分析》(点击链接阅读上篇)上下两篇文章,我们为大家介绍了IBM大数据计算平台相关知识,同时也用一个简单的实例告诉大家如何上手进行分析。

作为初学者的你,看到这样的长篇难免一头雾水。

但是万事最难在开头,如果通过这样一篇文章能够激发你了解大数据相关知识的热情,我们的目的也就达到了。

随着各种云计算平台的快速发展以及互联网巨头公司的大力投入,包括生物信息从业者在内的各种数据分析工程师现在几乎可以不受本地工作环境和条件的制约。

只要你有心,只要你愿意,就可以学习自己想学的东西。

共勉!

本文编辑:思考问题的熊

原文发布于微信公众号 - 生信技能树(biotrainee)

原文发表时间:2017-02-20

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏Jerry的SAP技术分享

SAP成都研究院非典型程序猿,菜园子小哥:当我用UI5诊断工具时我用些什么

身边有些年轻同事曾经向我表达过这种困扰:尽管完成日常工作没有任何问题,但是还想更进一步,把代码写得更好些,做到精益求精。现在写的代码能实现功能,但是不知道可以怎...

1503
来自专栏即时通讯技术

调皮的程序员:Linux之父雕刻在Linux内核中的故事

因为LINUX操作系统的流行,Linus 已经成为地球人都知道的名人。虽然大家可能都听过钱钟书先生的名言:“假如你吃个鸡蛋觉得味道不错,又何必认识那个下蛋的母鸡...

534
来自专栏iOSDevLog

WWDC 2018年十大视频评论

现在,“ 开发人员Triceraptus ” 的年度迁移已经结束,WWDC 2018包装已经从圣何塞的McEnery会议中心落下帷幕,我们还剩下另一系列令人信服...

912
来自专栏FSociety

Python爬虫爬取网易云音乐全部评论

. 2.接下来就打开控制台找我们要的评论藏在哪里就好了。 我们在http://music.163.com/weapi/v1/resource...

773
来自专栏JAVA高级架构

七夕情人节,程序员怎样表白更有效?

七夕情人节快乐 2017.08.28 今天是传统节日--七夕节,也是中国人传统意义上的"情人节",在此祝大家开心。然后,各大平台又被七夕节刷屏了... 作为国...

3225
来自专栏数据小魔方

你绝对想不到,数据地图还能这么玩~

这个周末刷微信的时候,偶然看到一篇关于R语言12月更新包的介绍,翻到底部看了一眼,刚好看到一个关于ggplot2的一个图层插件——geom_scatterpie...

3156
来自专栏数据小魔方

北京历史空气质量数据可视化~

还记得之前推送过的一篇讲大连天气数据可视化的文章吗,后来有小伙伴儿直呼不过瘾,墙裂要求来一个北京版的。 小编我日夜赶工,终于出炉了北京版的空气质量数据可视化,而...

3843
来自专栏较真的前端

[译] 响应式脑电波 — 如何使用 RxJS、Angular、Web 蓝牙以及脑电波头戴设备来让我们的大脑做一些更酷的事

1898
来自专栏沈唁志

2018年韩创科技旗下我图网PHP工程师面试题分享

4. 一张采用Innodb的User表,其中id为主键,name为普通索引,试从索引的数据结构角度分析,以下两条语句(均返回一条记录)在检索过程中有哪些区别

432
来自专栏企鹅号快讯

数据分析常用工具

本文总结数据分析常用的软件,以及推荐相应的学习参考资料。 1. Excel 常用操作有函数、可视化、数据透视表、VBA。 函数 可视化 i.单元格 ii.静态图...

1729

扫描关注云+社区