Nilearn学习笔记2-从FMRI数据到时间序列

通过前面的学习了解,我们知道最原始的Fmri数据是4维的,包含三围的空间信息和一维的时间。在实际应用中,我们更多的是利用大脑图像时间序列做研究分析,因为无法直接使用fmri数据做相关研究。在我们使用数据之前,我们需要对原始数据做一些数据预处理和变换。

1. mask

在所有的分析之中,我们第一步所做的事儿都是把四维fmri数据转换为二维矩阵,这个过程称为MASK。通俗的理解就是提取我们能利用的特征。通过mask得到的二维矩阵包含一维的时间和一维的特征,也就是将fmri数据中每一个时间片上的特征提取出来,再组在一起就是一个二维矩阵。如图所示:

在nilearn库中,提供了两个函数计算mask:

(1) nilearn.masking.compute_background_mask for brain images where the brain stands out of a constant background. This is typically the case when working on statistic maps output after a brain extraction
(2)nilearn.masking.compute_epi_mask for EPI images

(两个函数应用不同的数据,如果数据是EPI采样,就用第二个) 下面看例子:

from nilearn import masking
mask = masking.compute_background_mask(r'E:\home\bct_test\NC_01_0001\rs6_f8dGR_w3_rabrat_4D.nii')
print(mask.get_data().shape)
from nilearn.masking import apply_mask
masked_data = apply_mask(r'E:\home\bct_test\NC_01_0001\rs6_f8dGR_w3_rabrat_4D.nii', mask)
print(masked_data.shape)
# masked_data shape is (timepoints, voxels). We can plot the first 150
# timepoints from two voxels

# And now plot a few of these
import matplotlib.pyplot as plt
plt.figure(figsize=(7, 5))
plt.plot(masked_data[:230, 98:100])
plt.xlabel('Time [TRs]', fontsize=16)
plt.ylabel('Intensity', fontsize=16)
plt.xlim(0, 150)
plt.subplots_adjust(bottom=.12, top=.95, right=.95, left=.12)

plt.show()

得到的图像:

代码中可以看到,我选取了第98和99个特征,画出的图就是这样的。

2. Timeseries

Mask之后的数据我们也可以做研究分析了,但是我们也发现特征实在是太多了,根本就无法下手,或者是计算两太大。一般而言我们需要找出随着时间在变化的量,只有通过变化的量我们才能得到有效的信息。最简单的一个例子我们想研究北京的雾霾与堵车之间是否有关,那么我们就要得到相应的数据后分析数据,可事实是北京每天都堵车,程度也还一样,没有什么变化,也就无法分析了(这个例子有点儿扯)。 在mask之后,接下来要做的任务就是提取时间序列。说到时间序列,不得不说的是图谱。前面mask之后的特征实在是太多,怎样将这些特征与我们已有的经过验证的图谱对应起来。这个时候就涉及到一个重采样。 在nilearn中,重采样函数:resample_to_img

例如:from nilearn.image import resample_to_img
Atlas = resample_to_img(atlas_filename, mask, interpolation='nearest')

(这个是针对于已有参考图谱,最后一定要选最邻近的。如果没有参考图谱,有相应的函数) 重新采样之后就可以得到相应的时间序列了,在把时间序列转换为相关矩阵,并画出其图像。

from nilearn.input_data import NiftiLabelsMasker
masker = NiftiLabelsMasker(labels_img=Atlas, standardize=True,
                           memory='nilearn_cache', verbose=5)

time_series = masker.fit_transform\
    (r'E:\home\bct_test\NC_01_0001\rs6_f8dGR_w3_rabrat_4D.nii')

from nilearn.connectome import ConnectivityMeasure
correlation_measure = ConnectivityMeasure(kind='correlation')
correlation_matrix = correlation_measure.fit_transform([time_series])[0]

# Plot the correlation matrix
import numpy as np
from matplotlib import pyplot as plt
plt.figure(figsize=(10, 10))
# Mask the main diagonal for visualization:
np.fill_diagonal(correlation_matrix, 0)

plt.imshow(correlation_matrix, interpolation="nearest", cmap="RdBu_r",
           vmax=0.8, vmin=-0.8)

# Add labels and adjust margins
x_ticks = plt.xticks(range(len(labels) - 1), labels[1:], rotation=90)
y_ticks = plt.yticks(range(len(labels) - 1), labels[1:])
plt.gca().yaxis.tick_right()
plt.subplots_adjust(left=.01, bottom=.3, top=.99, right=.62)
plt.show()

图形:

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏落影的专栏

iOS开发-OpenGL ES入门教程3

教程 OpenGL ES入门教程1-Tutorial01-GLKit OpenGL ES入门教程2-Tutorial02-shader入门 这次是三维图形变...

2875
来自专栏ml

齐次方程到矩阵(番外篇)

     最近做题,老是遇到了一些公式比如An=An-1+An-2,然后给你一个巨大n的数据,要你求An的值,然后以前做起来,还是比较的顺手的,但是时间抹去了记...

3278
来自专栏量化投资与机器学习

【原创精品】随机森林在因子选择上的应用基于Matlab

随机森林对多元公线性不敏感,结果对缺失数据和非平衡的数据比较稳健,可以很好地预测多达几千个解释变量的作用。

2287
来自专栏Spark学习技巧

【深度学习】⑤--自然语言处理的相关应用

恩恩,关注我好了 1. 自然语言处理(NLP)的常见任务 先来看看在工业界对于自然语言处理的一些常见需求与任务。 自动摘要 这个在搜索引擎中非常常用。指计算机...

3488
来自专栏深度学习计算机视觉

矩阵乘法的Strassen算法+动态规划算法(矩阵链相乘和硬币问题)

矩阵乘法的Strassen ---- 这个算法就是在矩阵乘法中采用分治法,能够有效的提高算法的效率。 先来看看咱们在高等代数中学的普通矩阵的乘法 ? 两个矩阵相...

4626
来自专栏大数据挖掘DT机器学习

R语言与点估计学习笔记(EM算法与Bootstrap法)

众所周知,R语言是个不错的统计软件。今天分享一下利用R语言做点估计的内容。主要有:矩估计、极大似然估计、EM算法、最小二乘估计、刀切法(Jackknife)、自...

28710
来自专栏PPV课数据科学社区

KNN算法在保险业精准营销中的应用

一、KNN算法概述 KNN是Machine Learning领域一个简单又实用的算法,与之前讨论过的算法主要存在两点不同: 它是一种非参方法。即不必像线性回归、...

2686
来自专栏机器学习原理

机器学习(16)——EM算法示例

算法思想:含有隐变量的极大似然估计 我们经常会从样本观察数据中,找出样本的模型参数。 最常用的方法就是极大化模型分布的对数似然函数。 但是在一些情况下,我们得到...

2998
来自专栏数说工作室

【分类战车SVM】第二话:线性分类

分类战车SVM (第二话:线性分类) 1. 回顾 上一集我们大致介绍了机器学习世界的一种新武器——支持向量机,代号为SVM(微信公众号“数说工作室”中回复“SV...

3855
来自专栏机器学习从入门到成神

机器学习之从极大似然估计到最大熵原理以及EM算法详解

极大似然估计是建立在极大似然原理的基础上的一个统计方法,极大似然原理的直观想法是,一个随机试验如有若干个可能的结果A,B,C,... ,若在一次试验中,结果A出...

46810

扫码关注云+社区