首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

基于EEG信号的生物识别系统影响因素分析

摘要:由于指纹、语音或面部等传统特征极易被伪造,因此寻找新的生物特征成为当务之急。对生物电信号的研究也因此具有了开发新的生物识别系统的潜力。使用脑电信号是因为其因人而异,并且相比传统的生物识别技术更难复制。这项研究的目的是基于脑电信号分析影响生物识别系统性能的因素。此项研究使用了六个不同的分类器来对比研究离散小波变换的几种分解级别作为一种预处理技术,同时还探讨了记录时间的重要性。这些分类器是高斯朴素贝叶斯分类器,K近邻算法(KNN),随机森林,AdaBoost(AB),支持向量机(SVM)和多层感知器。这项工作证明了分解程度对系统的整体结果没有很大的影响。另一方面,脑电图的记录时间对分类器的性能有较大影响。值得说的是这项研究使用了两组不同的数据集来验证结果。最后,我们的实验表明,SVM和AB是针对此特定问题的最佳分类器,它们分别实现了85.94±1.8,99.55±0.06,99.12±0.11和95.54±0.53,99.91±0.01和99.83±0.02的灵敏度、特异性和准确率。

02
您找到你想要的搜索结果了吗?
是的
没有找到

Nature Methods | 针对罕见病的机器学习方法

今天为大家介绍的是来自Casey Greene团队的一篇综述论文。高通量分析方法(如基因组学或成像)加速了基础研究,并使对患者样本的深度分子特征化成为例行程序。这些方法提供了关于参与疾病表型的基因、分子途径和细胞类型的丰富信息。机器学习(ML)可以成为从高维数据集中提取与疾病相关模式的有用工具。然而,根据生物学问题的复杂性,机器学习通常需要许多样本来识别重复出现且具有生物学意义的模式。罕见病在临床案例中天然受限,导致可供研究的样本较少。作者概述了在罕见病中使用机器学习处理小样本集的挑战和新兴解决方案。罕见病的机器学习方法的进展可能对其他具有高维数据但样本较少的应用有所启发。作者建议方法研究社区优先发展罕见病研究的机器学习技术。

01

用于 BCI 信号分类的深度特征的 Stockwell 变换和半监督特征选择

在过去的几年里,运动图像 (MI) 脑电图 (EEG) 信号的处理已被吸引到开发脑机接口 (BCI) 应用程序中,因为这些信号的特征提取和分类由于其固有的复杂性和倾向于人为它们的属性。BCI 系统可以提供大脑和外围设备之间的直接交互路径/通道,因此基于 MI EEG 的 BCI 系统对于控制患有运动障碍的患者的外部设备似乎至关重要。目前的研究提出了一种基于三阶段特征提取和机器学习算法的半监督模型,用于 MI EEG 信号分类,以通过更少的深度特征来提高分类精度,以区分左右手 MI 任务。在所提出的特征提取方法的第一阶段采用斯托克韦尔变换从一维 EEG 信号生成二维时频图 (TFM)。接下来,应用卷积神经网络 (CNN) 从 TFM 中寻找深度特征集。然后,使用半监督判别分析(SDA)来最小化描述符的数量。最后,五个分类器的性能,包括支持向量机、判别分析、在所提出的特征提取方法的第一阶段采用斯托克韦尔变换从一维 EEG 信号生成二维时频图 (TFM)。接下来,应用卷积神经网络 (CNN) 从 TFM 中寻找深度特征集。然后,使用半监督判别分析(SDA)来最小化描述符的数量。最后,五个分类器的性能,包括支持向量机、判别分析、在所提出的特征提取方法的第一阶段采用斯托克韦尔变换从一维 EEG 信号生成二维时频图 (TFM)。接下来,应用卷积神经网络 (CNN) 从 TFM 中寻找深度特征集。然后,使用半监督判别分析(SDA)来最小化描述符的数量。最后,五个分类器的性能,包括支持向量机、判别分析、k近邻、决策树、随机森林,以及它们的融合比较。SDA 和提到的分类器的超参数通过贝叶斯优化进行优化,以最大限度地提高准确性。所提出的模型使用 BCI 竞赛 II 数据集 III 和 BCI 竞赛 IV 数据集 2b 进行验证。所提出方法的性能指标表明其对 MI EEG 信号进行分类的效率。

02

Integrated Multiscale Domain Adaptive YOLO

领域自适应领域在解决许多深度学习应用程序遇到的领域转移问题方面发挥了重要作用。这个问题是由于用于训练的源数据的分布与实际测试场景中使用的目标数据之间的差异而产生的。在本文中,我们介绍了一种新的多尺度域自适应YOLO(MS-DAYOLO)框架,该框架在YOLOv4目标检测器的不同尺度上采用了多个域自适应路径和相应的域分类器。在我们的基线多尺度DAYOLO框架的基础上,我们为生成领域不变特征的领域自适应网络(DAN)引入了三种新的深度学习架构。特别地,我们提出了一种渐进特征约简(PFR)、一种无人分类器(UC)和一种集成架构。我们使用流行的数据集与YOLOv4一起训练和测试我们提出的DAN架构。我们的实验表明,当使用所提出的MS-DAYOLO架构训练YOLOv4时,以及当在自动驾驶应用的目标数据上进行测试时,物体检测性能显著提高。此外,相对于更快的R-CNN解决方案,MS-DAYOLO框架实现了数量级的实时速度改进,同时提供了可比的目标检测性能。

02

Progressive Domain Adaptation for Object Detection

最近用于对象检测的深度学习方法依赖于大量的边界框注释。收集这些注释既费力又昂贵,但当对来自不同分布的图像进行测试时,监督模型并不能很好地推广。领域自适应通过使现有标签适应目标测试数据来提供解决方案。然而,领域之间的巨大差距可能会使适应成为一项具有挑战性的任务,从而导致不稳定的训练过程和次优结果。在本文中,我们建议用一个中间域来弥合领域差距,并逐步解决更容易的适应子任务。该中间域是通过平移源图像以模仿目标域中的图像来构建的。为了解决领域转移问题,我们采用对抗性学习来在特征级别对齐分布。此外,应用加权任务损失来处理中间域中的不平衡图像质量。 实验结果表明,我们的方法在目标域上的性能优于最先进的方法。

03

使用扩散模型从文本提示中生成3D点云

虽然最近关于根据文本提示生成 3D点云的工作已经显示出可喜的结果,但最先进的方法通常需要多个 GPU 小时来生成单个样本。这与最先进的生成图像模型形成鲜明对比,后者在几秒或几分钟内生成样本。在本文中,我们探索了一种用于生成 3D 对象的替代方法,该方法仅需 1-2 分钟即可在单个 GPU 上生成 3D 模型。我们的方法首先使用文本到图像的扩散模型生成单个合成视图,然后使用以生成的图像为条件的第二个扩散模型生成 3D 点云。虽然我们的方法在样本质量方面仍未达到最先进的水平,但它的采样速度要快一到两个数量级,为某些用例提供了实际的权衡。我们在 https://github.com/openai/point-e 上发布了我们预训练的点云扩散模型,以及评估代码和模型。

03

涨姿势!用深度学习LSTM炒股:对冲基金案例分析

大数据文摘作品 编译:王一丁、修竹、阮雪妮、丁慧、钱天培 英伟达昨天一边发布“全球最大的GPU”,一边经历股价跳水20多美元,到今天发稿时间也没恢复过来。无数同学在后台问文摘菌,要不要抄一波底嘞? 今天用深度学习的序列模型预测股价已经取得了不错的效果,尤其是在对冲基金中。股价数据是典型的时间序列数据。 什么是序列数据呢?语音、文字等这些前后关联、存在内有顺序的数据都可以被视为序列数据。 将序列模型应用于语音和文字,深度学习在语音识别、阅读理解、机器翻译等任务上取得了惊人的成就。 具体怎么操作?效果又如何呢

04

DRT: A Lightweight Single Image Deraining Recursive Transformer

过度参数化是深度学习中常见的技术,以帮助模型学习和充分概括给定的任务;然而,这往往导致巨大的网络结构,并在训练中消耗大量的计算资源。最近在视觉任务上强大的基于Transformer的深度学习模型通常有很重的参数,并承担着训练的难度。然而,许多密集预测的低级计算机视觉任务,如去除雨痕,在实践中往往需要在计算能力和内存有限的设备上执行。因此,我们引入了一个基于递归局部窗口的自注意结构,并提出了去雨递归Transformer(DRT),它具有Transformer的优越性,但需要少量的计算资源。特别是,通过递归结构,我们提出的模型在去雨中只使用了目前表现最好的模型的1.3%的参数数量,同时在Rain100L基准上超过最先进的方法至少0.33dB。消融研究还调查了递归对去雨结果的影响。此外,由于该模型不是刻意为去雨设计的,它也可以应用于其他图像复原任务。我们的实验表明,它可以在去雪上取得有竞争力的结果。

02
领券