首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

利用机器学习研究脑卒中早期皮质运动系统的结构-功能关系

​背景:脑卒中后的运动结果可以通过下行皮质运动通路的结构和功能生物标志物来预测,通常分别通过磁共振成像和经颅磁刺激来测量。然而,完整的皮质运动功能的确切结构决定因素尚不清楚。识别皮质运动通路的结构和功能联系可以为脑卒中后运动损伤的机制提供有价值的见解。这项研究使用监督机器学习来分类上肢运动诱发电位状态,使用卒中早期获得的MRI测量。方法:回顾性分析脑卒中后1周内上肢中重度无力患者91例(女性49例,年龄35 ~ 97岁)的资料。使用T1和弥散加权MRI的指标训练支持向量机分类器来分类运动诱发电位状态,使用经

02
您找到你想要的搜索结果了吗?
是的
没有找到

婴儿EEG数据的多元模式分析(MVPA):一个实用教程

时间分辨多变量模式分析(MVPA)是一种分析磁和脑电图神经成像数据的流行技术,它量化了神经表征支持相关刺激维度识别的程度和时间过程。随着脑电图在婴儿神经成像中的广泛应用,婴儿脑电图数据的时间分辨MVPA是婴儿认知神经科学中一个特别有前途的工具。最近,MVPA已被应用于常见的婴儿成像方法,如脑电图和fNIRS。在本教程中,我们提供并描述了代码,以实现婴儿脑电图数据的MVPA分析。来自测试数据集的结果表明,在婴儿和成人,这种方法具有较高的准确性。同时,我们对分类方法进行了扩展,包括基于几何和基于精度的表示相似度分析。由于在婴儿研究中,每个参与者贡献的无伪影脑电图数据量低于儿童和成人研究,我们还探索和讨论了不同参与者水平的纳入阈值对这些数据集中产生的MVPA结果的影响。

03

SVM在脑影像数据中的应用

如第一章所述,机器学习中有四种基本方法:有监督学习、无监督学习、半监督学习和强化学习。分类是监督学习的一种形式,它根据训练阶段确定的许多输入输出对将输入数据映射到输出数据。使用分类,与一组示例观察相关的特征可以用来训练一个决策函数,该函数以给定的精度生成类别赋值(即标签labels)。从功能性神经成像数据到推特帖子,这些特征可以是多种多样的。一旦基于这些特征创建了决策函数分类器,它就可以使用之前建立的模式自动将类标签附加到新的、不可见的观察结果上。有许多类型的机器学习算法可以执行分类,如决策树,朴素贝叶斯和深度学习网络。本章回顾支持向量机(SVM)学习算法。支持向量机的强大之处在于它能够以平衡的准确性和再现性学习数据分类模式。虽然偶尔用于回归(见第7章),SVM已成为一种广泛使用的分类工具,具有高度的通用性,扩展到多个数据科学场景,包括大脑疾病研究。

04

深度 | “机器学习看脸定罪”引争议,谷歌 : 用更智能AI 算法反歧视

【新智元导读】上海交通大学的两位研究者武筱林与张熙的一项题为“利用脸部照片自动推断犯罪性”的研究,利用基于有监督的机器学习的方法,用 1856 张真实的人的脸部照片建立四个分类器(逻辑回归,KNN,SVM,CNN),根据人的脸部特征预测一个人是否有犯罪倾向,并评估这些分类器的表现。Google 博客文章《用更智能的机器学习打击歧视》提出改进机器学习系统来避免歧视, 认为优化“机会均等”只是可用于改进机器学习系统的许多工具中的一个,而数学本身不可能得到最好的解决方案。对抗机器学习中的歧视问题需要仔细、多学科结

013

Molecular Psychiatry|青少年焦虑发作:一项机器学习预测

最近对青少年的纵向研究报告了MRI与青春期前瞻性焦虑症状的相关性,而青春期是焦虑障碍发病的易感时期。然而,它们的预测价值尚未确定。通过机器学习算法进行个体预测可能有助于缩小与临床相关性之间的差距。采用随机森林、支持向量机和逻辑回归算法的投票分类器,评估感兴趣的灰质体积和心理测量学评分在检测前瞻性临床焦虑中的预测相关性。研究对象为年龄18 ~ 23岁的临床焦虑患者(N = 156)和健康对照者(N = 424)。提取Shapley值对特征重要性进行深度解读。对合并焦虑障碍的前瞻性预测主要依赖于心理测量学特征,达到了中等水平(受试者工作曲线下面积= 0.68),而广泛性焦虑障碍(GAD)的预测达到了相似的性能。仅就心理测量学特征而言,MRI局部体积并不能改善前瞻性合并焦虑症的预测性能,但它们改善了GAD的预测性能,其中尾状核和苍白球体积是贡献最大的特征之一。总之,在非焦虑的14岁青少年中,未来4-8年的临床焦虑发作可以个体化预测。心理测量学特征如神经质、绝望和情绪症状是汇总焦虑障碍预测的主要贡献因素。神经解剖学数据,如尾状核和苍白球体积,已被证明对GAD有价值,应纳入前瞻性临床焦虑预测。

04

【陆勤践行】机器学习分类器选择

你知道如何为你的分类问题选择合适的机器学习算法吗?当然,如果你真正关心准确率,那么最佳方法是测试各种不同的算法(同时还要确保对每个算法测试不同参数),然后通过交叉验证选择最好的一个。但是,如果你只是为你的问题寻找一个“足够好”的算法,或者一个起点,这里有一些我这些年发现的还不错的一般准则。 你的训练集有多大? 如果训练集很小,那么高偏差/低方差分类器(如朴素贝叶斯分类器)要优于低偏差/高方差分类器(如k近邻分类器),因为后者容易过拟合。然而,随着训练集的增大,低偏差/高方差分类器将开始胜出(它们具有较低的渐

010

如何理解Inductive Bias

在训练机器学习任务时候,会有一些假设,比如:KNN中假设特征空间中相邻的样本倾向于属于同一类;SVM中假设好的分类器应该最大化类别边界距离;等等。但是真实世界是没有这些假设的。这些假设是归纳出来的,而且和真实世界有一定的偏置,就叫归纳偏置。 在深度学习方面也是一样。以神经网络为例,各式各样的网络结构/组件/机制往往就来源于归纳偏置。在卷积神经网络中,我们假设特征具有局部性(Locality)的特性,即当我们把相邻的一些特征放在一起,会更容易得到“解”;在循环神经网络中,我们假设每一时刻的计算依赖于历史计算结果;还有注意力机制,也是基于从人的直觉、生活经验归纳得到的规则

02
领券