前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >NC单细胞文章复现(二):标准化

NC单细胞文章复现(二):标准化

作者头像
生信技能树jimmy
发布2021-07-02 17:35:39
1K1
发布2021-07-02 17:35:39
举报
文章被收录于专栏:单细胞天地单细胞天地

分享是一种态度

我们开始看看作者是怎么标准化数据的。考虑到各种混杂因素对单个细胞中定量表达水平的影响,混杂因素包括dropout events的频率、单个细胞中的低表达量mRNA、不同类型细胞捕获的高可变性或技术噪声,因此我们需要对QC后的数据进行标准化。接下来我们的分析结果会与文章有所不同,但是我们重点要学的是对数据的处理过程,所以我们继续学习下去。

二.标准化

标准化分为三个步骤进行,

  • (1) 使用Census algorithm将TPM值转换为relative counts(用Monocle包的函数Relative2abs)
  • (2) 对relative counts进行去卷积化(scran包);
  • (3) 用RUVSeq去除scrannormalized Census counts 额外的变异噪音。
代码语言:javascript
复制
#我们对过滤好的1326个细胞,总共13280个基因重新进行QC
#同样地,把cacultecell改成addPerCellQC
sceset <- sceset_all[keep.genes, ]

sceset<- addPerCellQC(sceset,exprs_values = "exprs",
                           detection_limit = min_thresh_log_tpm,flatten=FALSE,
                           subsets=  list("regular" = which(colData(sceset)$pool_H12 == 0), "pool" = which(colData(sceset)$pool_H12 == 1)))
#创建对象
min_thresh_tpm <- 1
pd_2 <- new("AnnotatedDataFrame", data = as.data.frame(colData(sceset)))
featureNames(pd_2) <- rownames(pd_2)
fd_2 <- new("AnnotatedDataFrame", data = as.data.frame(rowData(sceset)))
featureNames(fd_2) <- rowData(sceset)$gene_short_name
HSMM <- newCellDataSet(assays(sceset)$tpm, phenoData = pd_2, featureData = fd_2, 
                       expressionFamily = tobit(), lowerDetectionLimit = min_thresh_tpm)
HSMM <- detectGenes(HSMM, min_expr = min_thresh_tpm)
colData(sceset)$num_genes_expressed <- pData(HSMM)$num_genes_expressed

接下来这一步,使用relative2abs函数中的Census algorithm把TPM values 转换为 relative counts。也就是每个细胞中的TPM值除以每个细胞中估计的Total mRNA,重新计算TPM值。这样子,TPM值被转换成负二项分布的relative Census counts,这样相比于edgeR,DESeq2和SCDE 能更好地反映了单个细胞中mRNA的实际数量。我们看看monocle包中对relative2abs的描述。

对于我们来说,学到了另一种转录组测序数据处理方法。比如是否可以拿GEO/TCGA或者自己的数据TPM/FPKM转换成relative counts,然后进行下游分析?这个留给大家自己探索了....

代码语言:javascript
复制
# 将 TPM values转换为relative counts
rpc_matrix <- relative2abs(HSMM)
#创建对象
HSMM <- newCellDataSet(as(as.matrix(rpc_matrix), "sparseMatrix"),
                       phenoData = phenoData(HSMM),
                       featureData = featureData(HSMM),
                       lowerDetectionLimit = min_thresh_log_tpm,
                       expressionFamily = negbinomial.size())
#归一化处理
HSMM <- estimateSizeFactors(HSMM)
HSMM <- estimateDispersions(HSMM)

assays(sceset)$monocle <- as.matrix(exprs(HSMM))
assays(sceset)$log2_tpm <- log2(assays(sceset)$tpm + 1)
assays(sceset)$log2_monocle <- as.matrix(log2(exprs(HSMM) + 1))
assays(sceset)$log2_tpm_median <- t(scale(t(assays(sceset)$exprs), scale = FALSE))

接下来这一步会过将1326个samples过滤掉137个,剩下1189个samples。但是我们按照作者的代码跑的话,无法过滤掉这137个样本。我的理解是可能是在前面的calculateQCMetrics换成了addPerCellQC,QC的算法略有改变,对结果会有一点影响。

代码语言:javascript
复制
# 将每个细胞的表达量除以其因子大小,减少了干扰效应
exprs_filtered <- t(t(exprs(HSMM)/pData(HSMM)$Size_Factor))
#挑选基因值不是0的,此时没有1个samples的值为0。
nz_genes <- which(exprs_filtered != 0)
#再次log2转换
exprs_filtered[nz_genes] <- log2(exprs_filtered[nz_genes] + 1)
assays(sceset)$norm_log2_monocle <- as.matrix(exprs_filtered)
#此时,我们得到的samples仍然是1376个
length(colnames(as.matrix(exprs_filtered)))
> length(colnames(as.matrix(exprs_filtered)))
[1] 1326

接下来使用scan包来remove additional sources of unwanted variation。

RUVgb函数认为在样本中管家基因具有近似恒定表达量,并使用广义线性模型去回归管家基因表达的估计变异。

代码语言:javascript
复制
sceset_mon_norm <- sceset
assays(sceset_mon_norm)$counts <- assays(sceset)$monocle
clusters_mon_norm <- quickCluster(sceset_mon_norm, min.size = 100)
sceset_mon_norm <- computeSumFactors(sceset_mon_norm, cluster = clusters_mon_norm, sizes = 200, positive = TRUE)

if (length(which(sizeFactors(sceset_mon_norm) == 0)) > 0) {
  sceset_mon_norm <- sceset_mon_norm[,-which(sizeFactors(sceset_mon_norm) == 0)]
  assays(sceset_mon_norm)$log2_tpm_median <- t(scale(t(assays(sceset_mon_norm)$exprs), scale = FALSE))
}
sceset_mon_norm <- logNormCounts(sceset_mon_norm)
assays(sceset_mon_norm)$exprs <- assays(sceset_mon_norm)$logcounts


很遗憾,我们没能揪出那 137个samples,将1326个samples过滤成1189个samples,但是作者的代码大概意思懂了就好,毕竟单细胞发展这么快,相应的R包更新也快,有些函数里面的算法可能已经改变了,这样的话有时候就会没法完全重现作者的数据。作者也在给出了这样的说明:

代码语言:javascript
复制
# expressionFamily = gaussianff()) not supported from VGAM 1.0.6 onwards
# original code (working slightly differently now with the more recent versions of quickCluster and computeSumFactors from scran)
# due to updates/changes in quickCluster and computeSumFactors (at a minimum), the resulting values are slightly different
# than the ones obtained when carrying out the original analysis. to reproduce the results from the paper, we can simply
# read in the normalized data and the phenoData, as preprocessed in the original analysis

可喜的是,我们学习到了作者是如何对数据进行质控的,这一部分的内容在文献方法那里有详细的描述,有兴趣的小伙伴们可以去钻研。并且我们可以拿到作者上传到GSE118390上的已经normalized data来继续下游分析学习,下一节将学习细胞亚群的注释和一张复杂的热图绘制,我会结合文献的内容跟大家分享。

往期回顾

开机,写bug

本是同根生,缘何不同命?

多个组织的成纤维细胞图谱

OSCA单细胞数据分析笔记8—Dimensionality reduction




如果你对单细胞转录组研究感兴趣,但又不知道如何入门,也许你可以关注一下下面的课程

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2021-05-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 单细胞天地 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 二.标准化
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档