卷积神经网络对时序信号的分类预测

人工智能、机器学习和深度学习是当前非常热门的话题,仅在学术界有很多论文,在工业界也有许多的实际运用。在网上很容易找到概念,但是实际中人们又很容易将其混淆。通常来说,三者的关系可以归纳为:人工智能包含机器学习,机器学习包含深度学习,如下面的图所示:

图1 人工智能、机器学习和深度学习的关系图

上面图示深度学习是机器学习分支的概念非常重要,它继承了机器学习依赖模型自身获得参数的优点,同时它又超越了传统机器学习人工提取特征的限制,能够在大数据中进行自学习提取特征。但它同所有机器学习一样受限于训练数据和输入数据不同的问题。

本文要用到的卷积神经网络(ConvolutionalNeural Network,CNN),主要包含卷积技术以及深度神经网络。区别传统的机器学习,卷积神经网络将特征提取器与机器学习有机的结合了起来。

卷积神经网络处理的数据形式,具有局部与整体的关系,并且由低层次特征组合可以形成高层次的特征,还能得到不同特征间的空间相关性。图像信息具有典型性,因此当前的卷积神经网络技术主要应用在机器视觉领域。其实,这种局部与整体的关系也可以看作是不同的频率信息构建的特征,许多序列信号也具有这样的特征,以人体信号为例,处于不同频段和幅度的PQRST波构成了ECG信号,而波形的变化也与对应的病征具有很强的关联性。因此,使用CNN对以ECG为代表的时序信号进行处理也是可行的。

Step1:加载数据,数据以.mat存放在Data文件夹,其中四个.mat文件的文件名对应目标分类值;

%% 加载数据

fprintf('Loadingdata...\n');

tic;

load('Data\N_dat.mat');

load('Data\L_dat.mat');

load('Data\R_dat.mat');

load('Data\V_dat.mat');

fprintf('Finished!\n');

Step2:加标签值,给对应的数据加上分类标签,其中的标签用元胞数组表示;

%% 控制使用数据量,每一类5000,并生成标签,用1 2 3 4表示

fprintf('Datapreprocessing...\n');

tic;

Nb =Nb(1:5000,:);

Label1 =repmat({'N'},1,5000);

Vb =Vb(1:5000,:);

Label2 =repmat({'V'},1,5000);

Rb =Rb(1:5000,:);

Label3 =repmat({'R'},1,5000);

Lb =Lb(1:5000,:);

Label4 =repmat({'L'},1,5000);

Data =[Nb;Vb;Rb;Lb];

Label =[Label1,Label2,Label3,Label4];

clear Nb;clearLabel1;%定向清除内存

clear Rb;clearLabel2;

clear Lb;clearLabel3;

clear Vb;clearLabel4;

fprintf('Finished!\n');

toc;

Step3:对数据进行归一化操作,这部分程序直接放在函数CNNModeTrainFunc.m当中调用,对数据归一化主要有两种,一种是最大最小法,对应Matlab库函数mapminmax,一种是平均数方差法,对应Matlab库函数mapstd,归一化的目的主要是消除不同数据采集设备的数量级差别,当然在数据样本较少的情形下也可以认为起到有效特征提取的作用;

function [X,Y] =getCNNDataFunc(x,y)

Y = categorical(y);

for k = 1:length(y)

X(1,:,1,k) = mapstd(x(k,:));

%等价于 X(1,:,1,k) = (x(k,:) -mean(x(k,:))) / std(x(k,:));

end

Step4:结构层设计,Matlab自带的库函数是处理图像的,因此输入层也是图片的输入格式,但是序列信号可以看作图像信息的特例,将其中的过程矩阵用行向量取代,本文介绍的CNN实例,包含四个卷积层,三个池化层,两个全连接层(即BP网络中的隐藏层),使用的激活函数为ReLU,全连接层的权系数节点丢弃率为0.2,同时设计softmax的多分类;

layers = [

imageInputLayer([inputSize 250 1])

%输入数据1*250*1

convolution2dLayer([1,11],4,'Padding','same')

%滤波器长度为11,个数为4,输出的数据跟输入维度相同

batchNormalizationLayer

reluLayer%激活函数

averagePooling2dLayer([1,3],'Stride',[1,2])

%平均池化函数,三点平均,滑窗长度为2

convolution2dLayer([1,13],16,'Padding','same')

batchNormalizationLayer

reluLayer

averagePooling2dLayer([1,3],'Stride',[1,2])

convolution2dLayer([1,15],32,'Padding','same')

batchNormalizationLayer

reluLayer

averagePooling2dLayer([1,3],'Stride',[1,2])

convolution2dLayer([1,17],64,'Padding','same')

batchNormalizationLayer

reluLayer

dropoutLayer(0.2)%权系数节点丢弃率

fullyConnectedLayer(numClasses)

softmaxLayer

classificationLayer];

Step5:CNN训练参数的设定,其中的训练方法为’sgdm’ ,即动量驱动的随机梯度下降法,使用验证数据在训练过程中进行实施验证,其中的小批量尺寸设置为120;

options =trainingOptions('sgdm',...

%动量法驱动的随机梯度下降

'MiniBatchSize',miniBatchSize,...

%小批量尺寸大小

'MaxEpochs',9,...%轮数

'InitialLearnRate',1e-3,...

%初始学习率,

'LearnRateSchedule','piecewise',...

'LearnRateDropFactor',0.1,...

'LearnRateDropPeriod',20,...

'Shuffle','every-epoch',...

'ValidationData',,...

%验证数据

'ValidationFrequency',validationFrequency,...

%验证频率

'ValidationPatience',Inf,...

'Plots','training-progress',...

'Verbose',false);

Step6:训练CNN网络;

net =trainNetwork(XTrain,YTrain,layers,options);

图2 CNN训练过程

Step7:使用训练好的CNN网络对输入序列进行预测分类,这里使用验证数据集作为测试数据集,同时给出混淆矩阵绘图。

YPred =classify(cnn_net,validation_x,

'MiniBatchSize',miniBatchSize,

'SequenceLength', 'longest');

plotconfusion(YPred,validation_y');

%绘制混淆矩阵

通过预测集和实际集的混淆矩阵,可以很具体的分析各类的性能分析,这里不再做具体叙述。对以CNN为代表的深度学习分类方法,对训练和输入数据的一致要求严格,这也对传感器的稳定性提出了要求,同时在训练过程中也需要尽可能保持各类数据样本的均衡。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180910G1IXJR00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码关注腾讯云开发者

领取腾讯云代金券