Nilearn学习笔记2-从FMRI数据到时间序列

通过前面的学习了解,我们知道最原始的Fmri数据是4维的,包含三围的空间信息和一维的时间。在实际应用中,我们更多的是利用大脑图像时间序列做研究分析,因为无法直接使用fmri数据做相关研究。在我们使用数据之前,我们需要对原始数据做一些数据预处理和变换。

1. mask

在所有的分析之中,我们第一步所做的事儿都是把四维fmri数据转换为二维矩阵,这个过程称为MASK。通俗的理解就是提取我们能利用的特征。通过mask得到的二维矩阵包含一维的时间和一维的特征,也就是将fmri数据中每一个时间片上的特征提取出来,再组在一起就是一个二维矩阵。如图所示:

在nilearn库中,提供了两个函数计算mask:

(1) nilearn.masking.compute_background_mask for brain images where the brain stands out of a constant background. This is typically the case when working on statistic maps output after a brain extraction
(2)nilearn.masking.compute_epi_mask for EPI images

(两个函数应用不同的数据,如果数据是EPI采样,就用第二个) 下面看例子:

from nilearn import masking
mask = masking.compute_background_mask(r'E:\home\bct_test\NC_01_0001\rs6_f8dGR_w3_rabrat_4D.nii')
print(mask.get_data().shape)
from nilearn.masking import apply_mask
masked_data = apply_mask(r'E:\home\bct_test\NC_01_0001\rs6_f8dGR_w3_rabrat_4D.nii', mask)
print(masked_data.shape)
# masked_data shape is (timepoints, voxels). We can plot the first 150
# timepoints from two voxels

# And now plot a few of these
import matplotlib.pyplot as plt
plt.figure(figsize=(7, 5))
plt.plot(masked_data[:230, 98:100])
plt.xlabel('Time [TRs]', fontsize=16)
plt.ylabel('Intensity', fontsize=16)
plt.xlim(0, 150)
plt.subplots_adjust(bottom=.12, top=.95, right=.95, left=.12)

plt.show()

得到的图像:

代码中可以看到,我选取了第98和99个特征,画出的图就是这样的。

2. Timeseries

Mask之后的数据我们也可以做研究分析了,但是我们也发现特征实在是太多了,根本就无法下手,或者是计算两太大。一般而言我们需要找出随着时间在变化的量,只有通过变化的量我们才能得到有效的信息。最简单的一个例子我们想研究北京的雾霾与堵车之间是否有关,那么我们就要得到相应的数据后分析数据,可事实是北京每天都堵车,程度也还一样,没有什么变化,也就无法分析了(这个例子有点儿扯)。 在mask之后,接下来要做的任务就是提取时间序列。说到时间序列,不得不说的是图谱。前面mask之后的特征实在是太多,怎样将这些特征与我们已有的经过验证的图谱对应起来。这个时候就涉及到一个重采样。 在nilearn中,重采样函数:resample_to_img

例如:from nilearn.image import resample_to_img
Atlas = resample_to_img(atlas_filename, mask, interpolation='nearest')

(这个是针对于已有参考图谱,最后一定要选最邻近的。如果没有参考图谱,有相应的函数) 重新采样之后就可以得到相应的时间序列了,在把时间序列转换为相关矩阵,并画出其图像。

from nilearn.input_data import NiftiLabelsMasker
masker = NiftiLabelsMasker(labels_img=Atlas, standardize=True,
                           memory='nilearn_cache', verbose=5)

time_series = masker.fit_transform\
    (r'E:\home\bct_test\NC_01_0001\rs6_f8dGR_w3_rabrat_4D.nii')

from nilearn.connectome import ConnectivityMeasure
correlation_measure = ConnectivityMeasure(kind='correlation')
correlation_matrix = correlation_measure.fit_transform([time_series])[0]

# Plot the correlation matrix
import numpy as np
from matplotlib import pyplot as plt
plt.figure(figsize=(10, 10))
# Mask the main diagonal for visualization:
np.fill_diagonal(correlation_matrix, 0)

plt.imshow(correlation_matrix, interpolation="nearest", cmap="RdBu_r",
           vmax=0.8, vmin=-0.8)

# Add labels and adjust margins
x_ticks = plt.xticks(range(len(labels) - 1), labels[1:], rotation=90)
y_ticks = plt.yticks(range(len(labels) - 1), labels[1:])
plt.gca().yaxis.tick_right()
plt.subplots_adjust(left=.01, bottom=.3, top=.99, right=.62)
plt.show()

图形:

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏新智元

ICLR 2018最佳论文重磅出炉!Adam新算法、球形CNN等受关注

---- 新智元报道 作者:小潘 【新智元导读】今天,ICLR官网公布了ICLR 2018的最佳论文,一共三篇。这些论文在被ICLR接收之后持续得到讨论...

3357
来自专栏CDA数据分析师

一篇文章了解贝叶斯机器学习

你知道贝叶斯法则。机器学习与它有何相关?它可能很难掌握如何把拼图块放在一起——我们了解它花了一段时间。 贝叶斯和频率论者 在本质上,贝叶斯意味着概率。这个具体的...

1836
来自专栏机器之心

专栏 | 机器学习实战:Python信用卡欺诈检测

机器之心专栏 公众号:数据先锋(data_pioneer) 作者:唐宇迪 对信用卡交易数据建立检测模型,使用Python库进行预处理与机器学习建模工作,代码通俗...

3798
来自专栏人工智能头条

无人驾驶汽车系统入门:深度前馈网络,深度学习的正则化,交通信号识别

2285
来自专栏量化投资与机器学习

【Python量化投资】系列之SVR预测第二天开盘趋势和股价的正负统计分析(附代码)

本期导读 ⊙ML、SVM介绍 ⊙股价的正负统计分析 ⊙预测第二天开盘趋势 机器学习方法是计算机科学的一个分支,它借助于计算机算法,对数据进行分析后,实现模式识别...

3098
来自专栏新智元

【NIPS'16 】Bengio 报告 | 大脑与比特:当神经科学遇上深度学习

【新智元导读】本年度的 NIPS 接近尾声,Yoshua Bengio 的报告终于出炉。Bengio这次报告主要介绍神经科学与深度学习之间的关系,逐一介绍了在神...

3375
来自专栏企鹅号快讯

What-人脸识别?

说到指纹识别,用过它的都知道,只要在指定区域用手指一轻轻碰,就能解开锁屏。但是说到不常见的人脸识别,相信大家对此就很陌生了。不过没关系,现在就由小编帮你了解一下...

2196
来自专栏AI研习社

干货:图像比赛的通用套路有哪些?Kaggle比赛金牌团队为你解答

AI研习社按: Kaggle 是全世界首屈一指的数据科学、机器学习开发者社区和竞赛平台。日前,中山大学CIS实验室的研二学生刘思聪为我们带来了一场精彩的分享。他...

3686
来自专栏机器之心

从大间隔分类器到核函数:全面理解支持向量机

26010
来自专栏量子位

深度学习在推荐系统上的应用

作者:陈仲铭 量子位 已获授权编辑发布 转载请联系原作者 深度学习最近大红大紫,深度学习的爆发使得人工智能进一步发展,阿里、腾讯、百度先后建立了自己的AI La...

3575

扫码关注云+社区