没有自己的服务器如何学习生物数据分析(下篇)

编者注:在上篇文章《没有自己的服务器如何学习生物数据分析》上篇,我们对 IBM 云计算平台有了基本了解,也学习了如何对数据进行下载上传以及基本的预处理。 在《没有自己的服务器如何学习生物数据分析》下篇,我们将继续跟随作者的脚步学习如何利用IBM云计算平台处理实际的生物学数据分析问题。题目来自生信技能树论坛,论坛网址:http://biotrainee.com/forum.php/ 如果你没有看过上篇内容,建议你先去阅读没有自己的服务器如何学习生物数据分析(上篇) 祝阅读愉快,下面是文章正文!

首先思考一下提问者的几个问题:

  • 每条染色体基因个数的分布?
  • 所有基因平均有多少个转录本?
  • 所有转录本平均有多个exon和intron?

那如何将这几句话翻译成 SQL 语句呢

  • 每条染色体基因个数的分布?

思考一下,问的其实是:

每个 Chrom 值,对应 几种、不重复的Gene?

    SELECT Chrom, COUNT(DISTINCT(Gene)) FROM GTF    GROUP BY Chrom

"每个" Chrom 意味着 GROUP BY Chrom, 与此同时,前面SELECT 就得加上 Chrom,这样最后的结果才会显示是哪个染色体。

"几种" 翻译成 COUNT,不重复翻译成 "DISTINCT",于是合并后就是 COUNT(DISTINC(Gene))

然后我们要保证只看 Gene Tran Exon 都非空的行,即 WHERE (Gene != "NULL") AND (Tran !="NULL") AND (Exon != "NULL")

于是写出SQL:

    SELECT Chrom, COUNT(DISTINCT(Gene)) FROM GTF    WHERE (Gene != "NULL")  AND (Tran != "NULL") AND (Exon != "NULL")    GROUP BY Chrom

了解更多 SQL 可以在这个网站 https://www.w3schools.com/sql/ 在线学习基本的SQL语句。

SQL 语句在调取 UCSC 数据集中同样作用巨大,具体这里不表。

这句话怎么在 DataFrame 执行?需要先 registerTempTable("GTF")把 df 这个 dataFrame 给 SparkSQL,取一个表名,叫做 “GTF”。这样 df 就可以直接用 SQL语句分析了。

更多内容参考文档http://spark.apache.org/docs/2.0.2/sql-programming-guide.html

代码块【6】:

df.registerTempTable("GTF")sqlDF_genesInEachChr = spark.sql("""    SELECT Chrom, COUNT(DISTINCT(Gene)) AS Cnt FROM GTF    WHERE (Gene != "NULL")  AND (Tran != "NULL") AND (Exon != "NULL")    GROUP BY Chrom""")sqlDF_genesInEachChr.show()

结果:

运行过程时间有点长,请耐心等待。

因为 IBM 的免费机器是 2 核心单机模式,体现不出 Spark 大数据分析的威力。如果你在Spark集群模式下,几台 48 线程的机器上对一个大文件执行SparkSQL(前提是没人使用 + 满CPU使用),在等待的过程中去后台 top 一下,会看见计算节点上全部都是恐怖的 4800% 的 CPU 使用率,共同执行同一个任务。

好啦,SparkSQL 的结果已经只有20+行了,此时可以收进内存里面了。

不过 SparkSQL 的结果是个 DataFrame, R 语言倒是能直接收进去,Python 默认的数据类型,没有这个,怎么办?

来,我们先抑制住重复造轮子、准备自己写一个的冲动,由于我们最开始 Import 了 pandas,这个包引入后, Python 也就支持 DataFrame 了。这里直接用SparkSQL 的 toPandas 方法,就可以得到Pandas 的 DataFrame 了:

代码块【7】:

pd_genesInEachChr = sqlDF_genesInEachChr.toPandas()pd_genesInEachChr.head()

结果:

  • 画图

得到表了,有人要说,你最开始就讲* Jupyter 能画图*,有个包叫做 seaborn 的还跟 ggplot2 一样简单,记忆力强的还念叨着 setstyle('white') 相当于 themebw(),现场画一个呗?

没问题。首先,Pandas 的DataFrame 没有R语言的 factor 这种让人又爱又恨的东西(掉过这个坑的在下面举手)。所以如果要调整顺序,得自己想办法。我就用了高阶函数做这个事情。具体大家参考 廖雪峰大神的Python 教程之匿名函数篇高阶函数篇。简单说, 下面的 lambda 属于匿名函数,对我这种懒人而言不用写 def 定义函数了。map 是对一个列表每个值执行一个函数, reduce 把返回结果一个接在另一个尾巴上。有Python基础的注意,由于 map 返回的是 pandas 的 DataFrame 而不是 Python 默认的list,实际上 reduce 的 append 是 Pandas的append 而不是系统 append。

还不清楚的,这里写一个 shell 的同义语句:

rm input.chrSort.txtfor chr in {1..22} X Y MTdo    grep -w ${chr} input.txt >>input.chrSort.txtdone

代码块【8】:

l_plotChrOrder = map(lambda x: str(x), range(1, 23)) + ['X', 'Y', 'MT']pd_genesInEachChrSort = reduce(lambda x,y: x.append(y),       map(lambda x: pd_genesInEachChr[pd_genesInEachChr['Chrom'] == x], l_plotChrOrder)          )pd_genesInEachChrSort.head()

结果:

代码块【9】:

sns.barplot(data=pd_genesInEachChrSort, x="Cnt", y="Chrom")

结果:

    <matplotlib.axes._subplots.AxesSubplot at 0x7fb1a31e9110>

大家看是不是实现了 ggplot2 的效果?更多例子请查看 seaborn文档

OK,快速解决剩下来的问题:

  • 所有基因平均有多少个转录本?

代码块【10】:

sqlDF_transInEachGene = spark.sql("""    SELECT Gene, COUNT(DISTINCT(Tran)) AS Cnt FROM GTF    WHERE (Gene != "NULL")  AND (Tran != "NULL") AND (Exon != "NULL")    GROUP BY Gene""")pd_transInEachGene = sqlDF_transInEachGene.toPandas()sns.distplot(pd_transInEachGene['Cnt'])

结果:

    <matplotlib.axes._subplots.AxesSubplot at 0x7fb1a09a6bd0>
  • 图片展示效果调整

画好了,拿给老板看,这个肯定得挨骂,不好看啊,长尾效应太明显。Python 作图微调效果如何?好用的话你画一个 0~25 的柱状分布呗?

既然要微调,我就用原始的python 作图 matplotlib 库了,他和 seaborn 的关系如同 R 的 plot 与 ggolot2。

matplotlib 库有非常精美的 gallery,代码拿来就能在jupyter上画,再次强调,如果不显示图像请像我这里最开始import 一样加 %matplotlib inline 魔法。

画之前先简单看下数据分布,类似 R 的 summary

代码块【11】:

pd_transInEachGene['Cnt'].describe()

结果:

    count    57992.000000    mean         3.413143    std          5.103533    min          1.000000    25%          1.000000    50%          1.000000    75%          4.000000    max        170.000000    Name: Cnt, dtype: float64

代码块【12】:

plt.hist(pd_transInEachGene['Cnt'], max(pd_transInEachGene['Cnt']), histtype='bar')plt.xlim(0, 25)

结果:

    (0, 25)

OK,这个应该拿给老板不会挨骂了,下一个问题:

  • 所有转录本平均有多个exon?

代码块【13】:

sqlDF_exonsInEachTran = spark.sql("""        SELECT Tran, COUNT(DISTINCT(Exon))  AS Cnt FROM GTF        WHERE (Gene != "NULL")  AND (Tran != "NULL") AND (Exon != "NULL")        GROUP BY Tran""")pd_exonsInEachTran = sqlDF_exonsInEachTran.toPandas()pd_exonsInEachTran.head()

结果:

代码块【14】:

print("Median Value %d " % (pd_exonsInEachTran.median(0)))plt.hist(pd_exonsInEachTran['Cnt'], max(pd_exonsInEachTran['Cnt']), histtype='bar')plt.xlim(0, 15)

结果:

    Median Value 4     (0, 15)
  • 老板觉得似乎不对,想起了什么……

“这里看的是所有基因,我要你看的是编码基因。那么多非编码的看他干嘛!除了把中位数往下带跑偏影响结果,有什么意义?!”

此时,听话的人就直接 grep protein_coding 去了。而对此,我认为,如果长期以往,只能一直做菜鸟。我们要多长一个心眼,里面不还有 lincRNA 嘛,也挺重要,万一老板哪天让我比一下lincRNA 和编码的,我是不是还得再算一次?万一又要看其他的呢?

防止这种情况,很简单,把基因类型那一列加进去,分不同基因类别,全算出来放那里就好了

如果是用 perl 的 hash表做这件事,就会出来个似乎是(原谅我几年不写perl全忘光了)这样的数据架构:

push(@{$TypeTranExons{$gtype}{$tran}}, $exon);

相信有过这种噩梦般经历的读者此时会是懵逼的。哪地方该有括号,用 $ @ 还是%,小骆驼根本就没有,写错一个就报错,想深入学习,要么去看大神的代码,要么就得去看一本叫做 《Perl高级编程》的书,京东购买链接 在这里,点开发现无货的别急,这本书我几年前学这个的时候,就早已断货了。

Python 就没有这么多规矩,我最早就为的这个转的 python。

TypeTranExons[gtype][tran].append(exon)

当然我们现在有了 pyspark,更不用去折腾 Hash 结构去了,直接在 SQL 里,说人话。

代码块【15】:

pat_gene = '''gene_id\s+\"(\S+)\";'''pat_tran = '''transcript_id\s+\"(\S+)\";'''pat_exon = '''exon_number\s+\"*(\w+)\"*'''pat_type = '''gene_biotype\s+\"*(\w+)\"*'''pattern_gene = re.compile( pat_gene )pattern_tran = re.compile( pat_tran )pattern_exon = re.compile( pat_exon )pattern_type = re.compile( pat_type )def parseEachLineV2(f_line):    match_gene = pattern_gene.search( f_line[-1] )    match_tran = pattern_tran.search( f_line[-1] )    match_exon = pattern_exon.search( f_line[-1] )    match_type = pattern_type.search( f_line[-1] )    gene = "NULL"    tran = "NULL"    exon = "NULL"    gtype = "NULL"    if match_gene:        gene = match_gene.group(1)    if match_tran:        tran = match_tran.group(1)    if match_exon:        exon = match_exon.group(1)    if match_type:        gtype = match_type.group(1)    return [gene, tran, exon, gtype,f_line[0]]rdd = spark.read.text(path_1).rdd\            .filter(lambda x: x.value[0]!= "#")\            .map(lambda x: x.value.split("\t"))\            .map(lambda x: parseEachLineV2(x))rdd.take(5)

结果:

    [[u'ENSG00000223972',      'NULL',      'NULL',      u'transcribed_unprocessed_pseudogene',      u'1'],     [u'ENSG00000223972',      u'ENST00000456328',      'NULL',      u'transcribed_unprocessed_pseudogene',      u'1'],     [u'ENSG00000223972',      u'ENST00000456328',      u'1',      u'transcribed_unprocessed_pseudogene',      u'1'],     [u'ENSG00000223972',      u'ENST00000456328',      u'2',      u'transcribed_unprocessed_pseudogene',      u'1'],     [u'ENSG00000223972',      u'ENST00000456328',      u'3',      u'transcribed_unprocessed_pseudogene',      u'1']]

代码块【16】:

from pyspark.sql.types import *schema2=StructType(    [StructField("Gene",  StringType())] +     [StructField("Tran",  StringType())] +     [StructField("Exon",  StringType())] +    [StructField("Type",  StringType())] +    [StructField("Chrom", StringType())])df2 = sqlCtx.createDataFrame(rdd, schema2)df2.show()

结果:

    +---------------+---------------+----+--------------------+-----+    |           Gene|           Tran|Exon|        Type|Chrom|    +---------------+---------------+----+--------------------+-----+    |ENSG00000223972|           NULL|NULL|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000456328|NULL|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000456328|   1|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000456328|   2|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000456328|   3|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000450305|NULL|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000450305|   1|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000450305|   2|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000450305|   3|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000450305|   4|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000450305|   5|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000450305|   6|transcribed_unpro...|    1|    |ENSG00000227232|           NULL|NULL|unprocessed_pseud...|    1|    |ENSG00000227232|ENST00000488147|NULL|unprocessed_pseud...|    1|    |ENSG00000227232|ENST00000488147|   1|unprocessed_pseud...|    1|    |ENSG00000227232|ENST00000488147|   2|unprocessed_pseud...|    1|    |ENSG00000227232|ENST00000488147|   3|unprocessed_pseud...|    1|    |ENSG00000227232|ENST00000488147|   4|unprocessed_pseud...|    1|    |ENSG00000227232|ENST00000488147|   5|unprocessed_pseud...|    1|    |ENSG00000227232|ENST00000488147|   6|unprocessed_pseud...|    1|    +---------------+---------------+----+--------------------+-----+    only showing top 20 rows

OK, 新的一列成果加入表格,然后写SQL 分析数据。既然要看各种基因类型、每个转录本有几种外显子,那么 GROUP BY 就加一个 Type 列,SELECT 也加一个 Type 列显示出来。

代码块【17】:

df2.registerTempTable("GTF2")sqlDF_exonsInEachTran = spark.sql("""        SELECT Tran, Type, COUNT(DISTINCT(Exon))  AS Cnt FROM GTF2        WHERE (Gene != "NULL")  AND (Tran != "NULL") AND (Exon != "NULL")        GROUP BY Tran, Type""")pd_exonsInEachTran = sqlDF_exonsInEachTran.toPandas()pd_exonsInEachTran.head()

结果:

Pandas 也可以进行分组信息统计,如同 R 的 ddply。

代码块【18】:

pd_sort = pd_exonsInEachTran[['Type', 'Cnt']].groupby(['Type'])\                    .agg([len,np.median, np.mean, np.std])['Cnt']\                    .sort_values(['median'], ascending=False)pd_sort.head()

结果:

再排序画图看看

代码块【19】:

pd_exonsInEachTran_sort = reduce(lambda x,y: x.append(y),     map(lambda x: pd_exonsInEachTran[pd_exonsInEachTran['Type']==x], pd_sort.index[0:10])                        )pd_exonsInEachTran_sort.head()

结果:

最后画一个复杂点的啊

代码块【20】:

fig = plt.figure(figsize=(8, 8))ax1 = fig.add_subplot(121)ax2 = fig.add_subplot(122)sns.boxplot(data=pd_exonsInEachTran_sort, y="Type", x="Cnt", ax=ax1)sns.violinplot(data=pd_exonsInEachTran_sort, y="Type", x="Cnt", ax=ax2, bw=0.5)ax1.set_xlim(0, 20)ax2.set_xlim(-5, 60)ax2.set_yticklabels([])ax2.set_xticks([0, 20, 40, 60])ax2.set_xticklabels([0, 20, 40, 60])ax1.set_title("Boxplot")ax2.set_title("Violinplot")

结果:

    <matplotlib.text.Text at 0x7fb19e203050>

IBM data science 上代码:

https://apsportal.ibm.com/analytics/notebooks/d3400624-fd7f-483b-96f3-b9d07876f455/view?access_token=499996f6a4e6f93e448907bf219bae6310975c0d02521c7c67ef02b79b1ccf77

说明:文中所有 加粗蓝色字体 在作者博客中均为链接,由于微信的限制无法点击,可以点击阅读原文查看作者博客。

编者写在最后:

通过《没有自己的服务器如何学习生物数据分析》(点击链接阅读上篇)上下两篇文章,我们为大家介绍了IBM大数据计算平台相关知识,同时也用一个简单的实例告诉大家如何上手进行分析。

作为初学者的你,看到这样的长篇难免一头雾水。

但是万事最难在开头,如果通过这样一篇文章能够激发你了解大数据相关知识的热情,我们的目的也就达到了。

随着各种云计算平台的快速发展以及互联网巨头公司的大力投入,包括生物信息从业者在内的各种数据分析工程师现在几乎可以不受本地工作环境和条件的制约。

只要你有心,只要你愿意,就可以学习自己想学的东西。

共勉!

本文编辑:思考问题的熊

原文发布于微信公众号 - 生信技能树(biotrainee)

原文发表时间:2017-02-20

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏杨建荣的学习笔记

简单对比MySQL和Oracle中的一个sql解析细节 (r5笔记第40天)

SQL的语法解析器是一个很强大的内置工具集,里面会涉及到很多的编译原理的相关知识,语法分析,词法分析。。一大堆看起来很理论的东东,不过看起来枯燥之余,它们的价值...

3458
来自专栏Kevin-ZhangCG

Oracle学习笔记二

格式: select * from 表1,表2   select * from emp;   select * from dept;

1433
来自专栏杨建荣的学习笔记

关于MySQL学习大纲(r5笔记第26天)

首先需要自我反省,因为自己圈内朋友中MySQL大牛太多,自己就先班门弄斧了,莫见怪:) 前段时间很荣幸通过了YEP(Young Expert Program)的...

4198
来自专栏影子

PostgreSQL>窗口函数的用法

转载请注明出处:https://www.cnblogs.com/funnyzpc/p/9311281.html

1051
来自专栏Python数据科学

【SQL刷题系列】:leetcode178 Rank Scores

编写一个 SQL查询来对分数排名。如果两个分数相同,那么两个分数应该有同样的排名。但也请注意,如果平分,那么下一个名次应该是下一个连续的整数值。换句话说,名次之...

1542
来自专栏杨建荣的学习笔记

使用sql语句分析双色球(85天)

这个题目看似有点无厘头,老写技术博客,也来干点“正事",用sql语句分析一下近十年来的双色球情况,不过我肯定算不出来开奖结果,纯属个人娱乐, 个人觉得概率让一切...

2876
来自专栏数据和云

SQL为王:oracle标量子查询和表连接改写

小鱼(邓秋爽) 云和恩墨专家,有超过5年超大型数据库专业服务经验,擅长oracle 数据库优化、SQL优化和troubleshooting 编辑手记:如何提高数...

4316
来自专栏杨建荣的学习笔记

相差数十倍的SQL性能分析(r11笔记第98天)

今天处理开发同学提交的一个数据查询需求,看起来是一个很常规的SQL,但是有一点不同的是,他们提供了两份文件,一份是一个id列表,大概有3000多个id值,...

3408
来自专栏猿人谷

【性能提升神器】Covering Indexes

可能有小伙伴会问,Covering Indexes到底是什么神器呢?它又是如何来提升性能的呢?接下来我会用最通俗易懂的语言来进行介绍,毕竟不是每个程序猿都要像D...

531
来自专栏码神联盟

碎片化 | 第四阶段-50-hibernate之Criteria和NavtiveSQL查询操作-视频

如清晰度低,可转PC网页观看高清版本: http://v.qq.com/x/page/i0568gnxikp.html ---- ---- 版权声明:本视频、...

3396

扫码关注云+社区