专栏首页生信技能树没有自己的服务器如何学习生物数据分析(下篇)

没有自己的服务器如何学习生物数据分析(下篇)

编者注:在上篇文章《没有自己的服务器如何学习生物数据分析》上篇,我们对 IBM 云计算平台有了基本了解,也学习了如何对数据进行下载上传以及基本的预处理。 在《没有自己的服务器如何学习生物数据分析》下篇,我们将继续跟随作者的脚步学习如何利用IBM云计算平台处理实际的生物学数据分析问题。题目来自生信技能树论坛,论坛网址:http://biotrainee.com/forum.php/ 如果你没有看过上篇内容,建议你先去阅读没有自己的服务器如何学习生物数据分析(上篇) 祝阅读愉快,下面是文章正文!

首先思考一下提问者的几个问题:

  • 每条染色体基因个数的分布?
  • 所有基因平均有多少个转录本?
  • 所有转录本平均有多个exon和intron?

那如何将这几句话翻译成 SQL 语句呢

  • 每条染色体基因个数的分布?

思考一下,问的其实是:

每个 Chrom 值,对应 几种、不重复的Gene?

    SELECT Chrom, COUNT(DISTINCT(Gene)) FROM GTF    GROUP BY Chrom

"每个" Chrom 意味着 GROUP BY Chrom, 与此同时,前面SELECT 就得加上 Chrom,这样最后的结果才会显示是哪个染色体。

"几种" 翻译成 COUNT,不重复翻译成 "DISTINCT",于是合并后就是 COUNT(DISTINC(Gene))

然后我们要保证只看 Gene Tran Exon 都非空的行,即 WHERE (Gene != "NULL") AND (Tran !="NULL") AND (Exon != "NULL")

于是写出SQL:

    SELECT Chrom, COUNT(DISTINCT(Gene)) FROM GTF    WHERE (Gene != "NULL")  AND (Tran != "NULL") AND (Exon != "NULL")    GROUP BY Chrom

了解更多 SQL 可以在这个网站 https://www.w3schools.com/sql/ 在线学习基本的SQL语句。

SQL 语句在调取 UCSC 数据集中同样作用巨大,具体这里不表。

这句话怎么在 DataFrame 执行?需要先 registerTempTable("GTF")把 df 这个 dataFrame 给 SparkSQL,取一个表名,叫做 “GTF”。这样 df 就可以直接用 SQL语句分析了。

更多内容参考文档http://spark.apache.org/docs/2.0.2/sql-programming-guide.html

代码块【6】:

df.registerTempTable("GTF")sqlDF_genesInEachChr = spark.sql("""    SELECT Chrom, COUNT(DISTINCT(Gene)) AS Cnt FROM GTF    WHERE (Gene != "NULL")  AND (Tran != "NULL") AND (Exon != "NULL")    GROUP BY Chrom""")sqlDF_genesInEachChr.show()

结果:

运行过程时间有点长,请耐心等待。

因为 IBM 的免费机器是 2 核心单机模式,体现不出 Spark 大数据分析的威力。如果你在Spark集群模式下,几台 48 线程的机器上对一个大文件执行SparkSQL(前提是没人使用 + 满CPU使用),在等待的过程中去后台 top 一下,会看见计算节点上全部都是恐怖的 4800% 的 CPU 使用率,共同执行同一个任务。

好啦,SparkSQL 的结果已经只有20+行了,此时可以收进内存里面了。

不过 SparkSQL 的结果是个 DataFrame, R 语言倒是能直接收进去,Python 默认的数据类型,没有这个,怎么办?

来,我们先抑制住重复造轮子、准备自己写一个的冲动,由于我们最开始 Import 了 pandas,这个包引入后, Python 也就支持 DataFrame 了。这里直接用SparkSQL 的 toPandas 方法,就可以得到Pandas 的 DataFrame 了:

代码块【7】:

pd_genesInEachChr = sqlDF_genesInEachChr.toPandas()pd_genesInEachChr.head()

结果:

  • 画图

得到表了,有人要说,你最开始就讲* Jupyter 能画图*,有个包叫做 seaborn 的还跟 ggplot2 一样简单,记忆力强的还念叨着 setstyle('white') 相当于 themebw(),现场画一个呗?

没问题。首先,Pandas 的DataFrame 没有R语言的 factor 这种让人又爱又恨的东西(掉过这个坑的在下面举手)。所以如果要调整顺序,得自己想办法。我就用了高阶函数做这个事情。具体大家参考 廖雪峰大神的Python 教程之匿名函数篇高阶函数篇。简单说, 下面的 lambda 属于匿名函数,对我这种懒人而言不用写 def 定义函数了。map 是对一个列表每个值执行一个函数, reduce 把返回结果一个接在另一个尾巴上。有Python基础的注意,由于 map 返回的是 pandas 的 DataFrame 而不是 Python 默认的list,实际上 reduce 的 append 是 Pandas的append 而不是系统 append。

还不清楚的,这里写一个 shell 的同义语句:

rm input.chrSort.txtfor chr in {1..22} X Y MTdo    grep -w ${chr} input.txt >>input.chrSort.txtdone

代码块【8】:

l_plotChrOrder = map(lambda x: str(x), range(1, 23)) + ['X', 'Y', 'MT']pd_genesInEachChrSort = reduce(lambda x,y: x.append(y),       map(lambda x: pd_genesInEachChr[pd_genesInEachChr['Chrom'] == x], l_plotChrOrder)          )pd_genesInEachChrSort.head()

结果:

代码块【9】:

sns.barplot(data=pd_genesInEachChrSort, x="Cnt", y="Chrom")

结果:

    <matplotlib.axes._subplots.AxesSubplot at 0x7fb1a31e9110>

大家看是不是实现了 ggplot2 的效果?更多例子请查看 seaborn文档

OK,快速解决剩下来的问题:

  • 所有基因平均有多少个转录本?

代码块【10】:

sqlDF_transInEachGene = spark.sql("""    SELECT Gene, COUNT(DISTINCT(Tran)) AS Cnt FROM GTF    WHERE (Gene != "NULL")  AND (Tran != "NULL") AND (Exon != "NULL")    GROUP BY Gene""")pd_transInEachGene = sqlDF_transInEachGene.toPandas()sns.distplot(pd_transInEachGene['Cnt'])

结果:

    <matplotlib.axes._subplots.AxesSubplot at 0x7fb1a09a6bd0>
  • 图片展示效果调整

画好了,拿给老板看,这个肯定得挨骂,不好看啊,长尾效应太明显。Python 作图微调效果如何?好用的话你画一个 0~25 的柱状分布呗?

既然要微调,我就用原始的python 作图 matplotlib 库了,他和 seaborn 的关系如同 R 的 plot 与 ggolot2。

matplotlib 库有非常精美的 gallery,代码拿来就能在jupyter上画,再次强调,如果不显示图像请像我这里最开始import 一样加 %matplotlib inline 魔法。

画之前先简单看下数据分布,类似 R 的 summary

代码块【11】:

pd_transInEachGene['Cnt'].describe()

结果:

    count    57992.000000    mean         3.413143    std          5.103533    min          1.000000    25%          1.000000    50%          1.000000    75%          4.000000    max        170.000000    Name: Cnt, dtype: float64

代码块【12】:

plt.hist(pd_transInEachGene['Cnt'], max(pd_transInEachGene['Cnt']), histtype='bar')plt.xlim(0, 25)

结果:

    (0, 25)

OK,这个应该拿给老板不会挨骂了,下一个问题:

  • 所有转录本平均有多个exon?

代码块【13】:

sqlDF_exonsInEachTran = spark.sql("""        SELECT Tran, COUNT(DISTINCT(Exon))  AS Cnt FROM GTF        WHERE (Gene != "NULL")  AND (Tran != "NULL") AND (Exon != "NULL")        GROUP BY Tran""")pd_exonsInEachTran = sqlDF_exonsInEachTran.toPandas()pd_exonsInEachTran.head()

结果:

代码块【14】:

print("Median Value %d " % (pd_exonsInEachTran.median(0)))plt.hist(pd_exonsInEachTran['Cnt'], max(pd_exonsInEachTran['Cnt']), histtype='bar')plt.xlim(0, 15)

结果:

    Median Value 4     (0, 15)
  • 老板觉得似乎不对,想起了什么……

“这里看的是所有基因,我要你看的是编码基因。那么多非编码的看他干嘛!除了把中位数往下带跑偏影响结果,有什么意义?!”

此时,听话的人就直接 grep protein_coding 去了。而对此,我认为,如果长期以往,只能一直做菜鸟。我们要多长一个心眼,里面不还有 lincRNA 嘛,也挺重要,万一老板哪天让我比一下lincRNA 和编码的,我是不是还得再算一次?万一又要看其他的呢?

防止这种情况,很简单,把基因类型那一列加进去,分不同基因类别,全算出来放那里就好了

如果是用 perl 的 hash表做这件事,就会出来个似乎是(原谅我几年不写perl全忘光了)这样的数据架构:

push(@{$TypeTranExons{$gtype}{$tran}}, $exon);

相信有过这种噩梦般经历的读者此时会是懵逼的。哪地方该有括号,用 $ @ 还是%,小骆驼根本就没有,写错一个就报错,想深入学习,要么去看大神的代码,要么就得去看一本叫做 《Perl高级编程》的书,京东购买链接 在这里,点开发现无货的别急,这本书我几年前学这个的时候,就早已断货了。

Python 就没有这么多规矩,我最早就为的这个转的 python。

TypeTranExons[gtype][tran].append(exon)

当然我们现在有了 pyspark,更不用去折腾 Hash 结构去了,直接在 SQL 里,说人话。

代码块【15】:

pat_gene = '''gene_id\s+\"(\S+)\";'''pat_tran = '''transcript_id\s+\"(\S+)\";'''pat_exon = '''exon_number\s+\"*(\w+)\"*'''pat_type = '''gene_biotype\s+\"*(\w+)\"*'''pattern_gene = re.compile( pat_gene )pattern_tran = re.compile( pat_tran )pattern_exon = re.compile( pat_exon )pattern_type = re.compile( pat_type )def parseEachLineV2(f_line):    match_gene = pattern_gene.search( f_line[-1] )    match_tran = pattern_tran.search( f_line[-1] )    match_exon = pattern_exon.search( f_line[-1] )    match_type = pattern_type.search( f_line[-1] )    gene = "NULL"    tran = "NULL"    exon = "NULL"    gtype = "NULL"    if match_gene:        gene = match_gene.group(1)    if match_tran:        tran = match_tran.group(1)    if match_exon:        exon = match_exon.group(1)    if match_type:        gtype = match_type.group(1)    return [gene, tran, exon, gtype,f_line[0]]rdd = spark.read.text(path_1).rdd\            .filter(lambda x: x.value[0]!= "#")\            .map(lambda x: x.value.split("\t"))\            .map(lambda x: parseEachLineV2(x))rdd.take(5)

结果:

    [[u'ENSG00000223972',      'NULL',      'NULL',      u'transcribed_unprocessed_pseudogene',      u'1'],     [u'ENSG00000223972',      u'ENST00000456328',      'NULL',      u'transcribed_unprocessed_pseudogene',      u'1'],     [u'ENSG00000223972',      u'ENST00000456328',      u'1',      u'transcribed_unprocessed_pseudogene',      u'1'],     [u'ENSG00000223972',      u'ENST00000456328',      u'2',      u'transcribed_unprocessed_pseudogene',      u'1'],     [u'ENSG00000223972',      u'ENST00000456328',      u'3',      u'transcribed_unprocessed_pseudogene',      u'1']]

代码块【16】:

from pyspark.sql.types import *schema2=StructType(    [StructField("Gene",  StringType())] +     [StructField("Tran",  StringType())] +     [StructField("Exon",  StringType())] +    [StructField("Type",  StringType())] +    [StructField("Chrom", StringType())])df2 = sqlCtx.createDataFrame(rdd, schema2)df2.show()

结果:

    +---------------+---------------+----+--------------------+-----+    |           Gene|           Tran|Exon|        Type|Chrom|    +---------------+---------------+----+--------------------+-----+    |ENSG00000223972|           NULL|NULL|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000456328|NULL|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000456328|   1|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000456328|   2|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000456328|   3|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000450305|NULL|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000450305|   1|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000450305|   2|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000450305|   3|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000450305|   4|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000450305|   5|transcribed_unpro...|    1|    |ENSG00000223972|ENST00000450305|   6|transcribed_unpro...|    1|    |ENSG00000227232|           NULL|NULL|unprocessed_pseud...|    1|    |ENSG00000227232|ENST00000488147|NULL|unprocessed_pseud...|    1|    |ENSG00000227232|ENST00000488147|   1|unprocessed_pseud...|    1|    |ENSG00000227232|ENST00000488147|   2|unprocessed_pseud...|    1|    |ENSG00000227232|ENST00000488147|   3|unprocessed_pseud...|    1|    |ENSG00000227232|ENST00000488147|   4|unprocessed_pseud...|    1|    |ENSG00000227232|ENST00000488147|   5|unprocessed_pseud...|    1|    |ENSG00000227232|ENST00000488147|   6|unprocessed_pseud...|    1|    +---------------+---------------+----+--------------------+-----+    only showing top 20 rows

OK, 新的一列成果加入表格,然后写SQL 分析数据。既然要看各种基因类型、每个转录本有几种外显子,那么 GROUP BY 就加一个 Type 列,SELECT 也加一个 Type 列显示出来。

代码块【17】:

df2.registerTempTable("GTF2")sqlDF_exonsInEachTran = spark.sql("""        SELECT Tran, Type, COUNT(DISTINCT(Exon))  AS Cnt FROM GTF2        WHERE (Gene != "NULL")  AND (Tran != "NULL") AND (Exon != "NULL")        GROUP BY Tran, Type""")pd_exonsInEachTran = sqlDF_exonsInEachTran.toPandas()pd_exonsInEachTran.head()

结果:

Pandas 也可以进行分组信息统计,如同 R 的 ddply。

代码块【18】:

pd_sort = pd_exonsInEachTran[['Type', 'Cnt']].groupby(['Type'])\                    .agg([len,np.median, np.mean, np.std])['Cnt']\                    .sort_values(['median'], ascending=False)pd_sort.head()

结果:

再排序画图看看

代码块【19】:

pd_exonsInEachTran_sort = reduce(lambda x,y: x.append(y),     map(lambda x: pd_exonsInEachTran[pd_exonsInEachTran['Type']==x], pd_sort.index[0:10])                        )pd_exonsInEachTran_sort.head()

结果:

最后画一个复杂点的啊

代码块【20】:

fig = plt.figure(figsize=(8, 8))ax1 = fig.add_subplot(121)ax2 = fig.add_subplot(122)sns.boxplot(data=pd_exonsInEachTran_sort, y="Type", x="Cnt", ax=ax1)sns.violinplot(data=pd_exonsInEachTran_sort, y="Type", x="Cnt", ax=ax2, bw=0.5)ax1.set_xlim(0, 20)ax2.set_xlim(-5, 60)ax2.set_yticklabels([])ax2.set_xticks([0, 20, 40, 60])ax2.set_xticklabels([0, 20, 40, 60])ax1.set_title("Boxplot")ax2.set_title("Violinplot")

结果:

    <matplotlib.text.Text at 0x7fb19e203050>

IBM data science 上代码:

https://apsportal.ibm.com/analytics/notebooks/d3400624-fd7f-483b-96f3-b9d07876f455/view?access_token=499996f6a4e6f93e448907bf219bae6310975c0d02521c7c67ef02b79b1ccf77

说明:文中所有 加粗蓝色字体 在作者博客中均为链接,由于微信的限制无法点击,可以点击阅读原文查看作者博客。

编者写在最后:

通过《没有自己的服务器如何学习生物数据分析》(点击链接阅读上篇)上下两篇文章,我们为大家介绍了IBM大数据计算平台相关知识,同时也用一个简单的实例告诉大家如何上手进行分析。

作为初学者的你,看到这样的长篇难免一头雾水。

但是万事最难在开头,如果通过这样一篇文章能够激发你了解大数据相关知识的热情,我们的目的也就达到了。

随着各种云计算平台的快速发展以及互联网巨头公司的大力投入,包括生物信息从业者在内的各种数据分析工程师现在几乎可以不受本地工作环境和条件的制约。

只要你有心,只要你愿意,就可以学习自己想学的东西。

共勉!

本文编辑:思考问题的熊

本文分享自微信公众号 - 生信技能树(biotrainee),作者:胡博强

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2017-02-20

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 按照列筛选数据框不容易那么按照行就容易吗

    开始正式教程分享之前,先公布一个好消息,腾讯云的排行榜显示我们生信技能树是平台全国排名第123位有影响力的自媒体,还有一个证书:

    生信技能树
  • GTX.Zip--基因领域唯一100%安全无误的企业级压缩大咖!

    目前国内约莫有85台illumina的最新版novaseq测序仪,通常可以做到70元/Gbp的单价,一个人重测序标准的30X,也就是(3G X 30)90Gbp...

    生信技能树
  • lncRNA实战项目-第四步-得到表达矩阵的流程

    这是RNA-Seq 上游分析的大致流程,比对+定量。当然实验目的若只需要定量已知基因,也可以选择free-alignment 的流程工具如kallisto/Sa...

    生信技能树
  • MongoDB 4.2亮点功能之——管道更新功能和查询功能

    使用MongoDB时,如果需要比增、删、改、查操作更复杂的功能,过去我们会求助于聚合框架,装配出功能强大的操作管道,执行文档转换功能。在MongoDB 4.2中...

    MongoDB中文社区
  • 《Windows Phone 7 UI设计及人机交互指南》发布

        经过我们几个人的努力,《Windows Phone 7 UI设计及人机交互指南》翻译稿终于在http://www.wpmind.com/上发布啦。这对于...

    ShiJiong
  • 在前端如何玩转 Word 文档

    在日常工作中,大部分人都会使用 Microsoft Office Word、WPS 或 macOS Pages 等文字处理程序进行 Word 文档处理。除了使用...

    lucifer210
  • K8s集群部署篇–Kube-DNS(三)

    老七Linux
  • 还在做个人博客?记住这4个提示

    黄伟SEO
  • sklearn调包侠之朴素贝叶斯

    罗罗攀
  • python format 使用 技巧

    Simple positional formatting is probably the most common use-case. Use it if the...

    bear_fish

扫码关注云+社区

领取腾讯云代金券