大家好,又见面了,我是你们的朋友全栈君。

如上图所示,我先对将地面划分为n个小区域,用发声装置分别在每一个小区域的中心点坐标处发声一次,每发声一次,就用四个麦克风记录下时间差,,只需要三个时间差即可,分别为

这样,我们能得到n组数据,第i组数据如下所示:

其中x_i,y_i分别代表地面横坐标值和纵坐标值。这n组数据就可以作为BP神经网络的训练数据,离线采样操作就完成了。 (2)BP神经网络的构建 离线采样之后,我们就可以构建BP神经网络了。因为输入数据是三个分量,输出数据是两个分量,所以构建的BP神经网络的输入层与输出层分别是三个单位和两个单位。通过不断测试,我得出当隐含层含有7个神经元时,预测结果最佳。网络结构如下图所示。

构建了神经网络的结构,接下来我们要确定的是使用什么激活函数,训练算法和性能函数。在一般情况下,隐含层都是用S形激活函数,输出层都是用线性激活函数,此处的用法也是如此。由于用梯度下降法训练函数构建的网络速度比较慢,而基于LevenBerg-Marquardt算法的训练网络的速度非常快,所以我们使用LevenBerg-Marquardt的BP算法训练函数。由于我们要考虑的是网络的整体性能,所以我们使用的性能函数是均方误差函数。

误差分析如下图所示。

机器训练的结果分析如下图所示。

可以看出,用BP神经网络算法对100平方米的室内进行声源定位,只需要采集100组训练数据,就可以使预测位置与实际位置的误差只有几厘米。从机器训练的结果可以看出,整个定位过程所用时间非常短,收敛速非常快,均方误差已经达到了4×10^(-6)米。
%% 清空环境变量
clc
clear
%% 生成训练数据与预测数据
%%%训练数据
A=[4.9,4.9,1];%%%麦克风A的坐标
B=[4.9,5.1,1];%%%麦克风B的坐标
C=[5.1,5.1,1];%%%麦克风C的坐标
D=[5.0,5.0,2];%%%麦克风D的坐标
%x=0.5:1:9.5;y=0.5:1:9.5;%%%用100组数据训练
x=0.5:0.5:10;y=0.5:0.5:10;%%%用400组数据训练
[X,Y]=meshgrid(x,y);
tAB=(sqrt((A(1)-X).^2+(A(2)-Y).^2+A(3).^2)-sqrt((B(1)-X).^2+(B(2)-Y).^2+B(3).^2)); %%%声源到A,B两个麦克风的时间差,下同
tBC=(sqrt((B(1)-X).^2+(B(2)-Y).^2+B(3).^2)-sqrt((C(1)-X).^2+(C(2)-Y).^2+C(3).^2));
tCD=(sqrt((C(1)-X).^2+(C(2)-Y).^2+C(3).^2)-sqrt((D(1)-X).^2+(D(2)-Y).^2+D(3).^2));
ttAB=tAB(:)';
ttBC=tBC(:)';
ttCD=tCD(:)';
input_train=[ttAB;ttBC;ttCD];%%%训练数据的输入值(是麦克风接受声音的时间差)
XX=X(:)';
YY=Y(:)';
output_train=[XX;YY];%%%训练数据的输出值(是位置坐标)
%%%预测数据
m=10; %%%预测m个位置(就是分别将声源放到m个位置,用BP神经网络算法预测,然后对比预测结果和实际结果)
X=rand(1,m)*10;
Y=rand(1,m)*10;
tAB=(sqrt((A(1)-X).^2+(A(2)-Y).^2+A(3).^2)-sqrt((B(1)-X).^2+(B(2)-Y).^2+B(3).^2));
tBC=(sqrt((B(1)-X).^2+(B(2)-Y).^2+B(3).^2)-sqrt((C(1)-X).^2+(C(2)-Y).^2+C(3).^2));
tCD=(sqrt((C(1)-X).^2+(C(2)-Y).^2+C(3).^2)-sqrt((D(1)-X).^2+(D(2)-Y).^2+D(3).^2));
input_test=[tAB;tBC;tCD];%%%预测数据的输入值(是麦克风接受声音的时间差)
real_locate=[X;Y];%%%真实的声源坐标,用于检验预测值是否正确
%% 数据归一化
[inputn,inputps]=mapminmax(input_train); %%%其中inputps是用于记录数据归一化方法
[outputn,outputps]=mapminmax(output_train); %%%outputps同理
%% BP网络训练
% %初始化网络结构
net=newff(inputn,outputn,7);%%%建立一个由7个神经元组成的隐藏层构成了一个网络,这是新版matlab的用法
net.trainParam.epochs=5000;%%%最大迭代次数
net.trainParam.lr=0.1;%%%学习率
net.trainParam.goal=0.000004;%%%目标误差
net.trainParam.max_fail=10000;
%网络训练
net=train(net,inputn,outputn);
%% BP网络预测
%预测数据归一化
inputn_test=mapminmax('apply',input_test,inputps);%%%对测试数据再进行数据归一化,之前是对训练数据进行数据归一化,而且归一化方式和前面的一样
%网络预测输出
an=sim(net,inputn_test); %训练输出的结果
%网络输出反归一化
BPoutput=mapminmax('reverse',an,outputps);%%反归一化得到实际结果
%% 结果分析
for i=1:m
fprintf('第%d 次测试的实际位置是:(%d,%d)',i,real_locate(:,i));fprintf('\n');
fprintf('BP神经网络预测位置是:(%d,%d)',BPoutput(:,i));fprintf('\n');
end
%%%画图
plot(real_locate(1,:),real_locate(2,:),'*')
hold on
plot(BPoutput(1,:),BPoutput(2,:),'o')
legend('实际位置','预测位置')
title('BP网络预测输出','fontsize',12)
ylabel('Y方向','fontsize',12)
xlabel('X方向','fontsize',12)
%%%误差分析(预测位置的分量与实际位置的分量做差取绝对值再相加)
figure(2)
r=real_locate-BPoutput;
r=abs(r(1,:))+abs(r(2,:));
plot(r,'-*')
title('BP网络预测误差','fontsize',12)
legend('误差')
ylabel('误差(单位/米)','fontsize',12)
xlabel('位置','fontsize',12)本来想给你上传程序文件的,但是我还不会怎么上传了程序文件,所以等我之后上传了再来这里给链接吧。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/190636.html原文链接:https://javaforall.cn