《厦门大学《MATLAB在船舶建模中的应用》上机考试题目.docx》由会员分享,可在线阅读,更多相关《厦门大学《MATLAB在船舶建模中的应用》上机考试题目.docx(16页珍藏版)》请在第一文库网上搜索。
1、屋门大学MATLAB位触躺盘模中的成用上机考就题目信息科号号技术塔优自幼化东20XX 4欠自幼化专业学号:XX姓名:XX一、在命令行窗口输入一个简单矩阵15893 4, 467589,03521 7,8 4 2 3 0 7请分别输出第2行和第4列的元素。(10分) A=l 5 8 9 36 7 5 8 9;0 3 5 2 1 7;8 4 2 3 0 7154603848975522334891707 A1=A(2,:)A1 = A2=A(:, 4)A2 =9523二、在命令行窗口利用plot函数在同一张图上绘制两个余弦函数图形,yl=cos3x,y2=cos5x,xl和x2范围都是从-2至2,
2、采样时间为0.1,线条颜色yl为红色*, y2为蓝色-,请注明标题和横纵坐标,请画出两幅图。(20分).代码: xl=-2:0. 1:2;x2=-2:0. 1:2;yl=cos(3*xl);y2=cos(5*x2);figured);titleC 标题);xlabelC输入向里, );ylabelC输出向里);plot (xl,yl r );hold on;plot (x2, y2, b-);hold off;结果:Q Figure 1 = 回 -请简单的阐述BP神经网络和RBF神经网络基本原理和网络结构,并说明用于逼近函数神经网络训练和预测的思路。(15分)1、BP神经网络(1)基本原理反向
3、传播网络(Back-Propagation Network,简称BP网络)是将W-H学习规则一般化,对非线性可微分函数进行权值训练的多层网络。它是一种多层前向反馈神经网络,其神经元的变换函数是S型函数。它利用误差反向传播算法对网络进行训练。权值的调整采用反向传播(Back- propagation)的学习算法。输出量为0至3之间的连续量,它可实现从输入到输出的任意的非线性映射。BP网络主要用于下述方面函数逼近:用输入矢量和相应的输出矢量训练一个网络逼近一个函数;模式识别和分类:用一个特定的输出矢量将它与输入矢量联系起来;把输入矢量以所定义的合适方式进行分类;数据压缩:减少输出矢量维数以便于传输
4、或存储。具有较强泛化性能:使网络平滑地学习函数,使网络能够合理地响应被训练以外的输入。泛化性能只对被训练的输入/输出对最大值范围内的数据有效,即网络具有内插值特性,不具有外插值性。超出最大训练值的输入必将产生大的输出误差。(2)网络结构一个具有r个输入和一个隐含层的神经网络模型结构。BP网络具有一层或多层隐含层,除了在多层网络上与前面已介绍过的模型有不同外,其主要差别也表现在激活函数上。BP网络的激活函数必须是处处可微的,因此它不能采用二值型的阀值函数0, 1或符号函数-l, Do BP网络经常使用的是S型的对数或正切激活函数和线性函数。s2xli = lf 2 ,,si; k = lf 2
5、,s2;j = 1, 2,r.BP网络特点有以下几点:输入和输出是并行的模拟量;网络的输入输出关系是各层连接的权因子决定,没有固定的算法;权因子通过学习信号调节。学习越多,网络越聪明;隐含层越多,网络输出精度越高,且个别权因子的损坏不会对网络输出产生大的影响;只有当希望对网络的输出进行限制,如限制在0和1之间,那么在输出层应当包含S型激活函数;在一般情况下,均是在隐含层采用S型激活函数,而输出层采用线性激活函数。(3)用于逼近函数神经网络训练和预测的思路训练BP网络,需要计算网络加权输入矢量以及网络输出和误差矢量,然后求误差平方和。当所训练矢量的误差平方和小于误差目标,训练停止;否则在输出层计
6、算误差变化,且采用反向传播学习规则来调整权值,然后重复此过程。网络完成训练后,对网络输入一个不是训练集合中的矢量,网络将以泛化方式给出输出结果。2、RBF神经网络(1)基本原理径向基(Radial Basis Function)网络是由Powell M.J.D于1985年提出的。它以局部响应的径向基函数代替传统的全局响应的激发函数,由于局部响应的特性,它对函数的逼近是最优的,而且训练过程很短。由于它具有简单的结构、快速的训练过程及与初始权值无关的优良特性,在多维曲面拟合、自由曲面重构和大型设备故障诊断等领域有着比较多的应用。同时,它也是一种可以广泛应用于模式识别、非线性函数逼近等领域的神经网络
7、模型。构成RBF网络的基本思想是:用RBF作为隐层神经元的“基”构成隐含层空间,隐含层对输入矢量进行变换,将低维的模式输入数据变换到高维空间内,使得在低维空间内的线性不可分的问题在高维空间内线性可分。RBF神经网络结构简单、训练简洁而且学习收敛速度快,能够逼近任意非线性函数,因此它已被广泛应用于时间序列分析、模式识别、非线性控制和图形处理等领域。(2)网络结构径向基函数(RBF)法是一种三层静态前向网络,分别为输入层,隐含层和输出层。第一层为输入层,它由信号源结点组成;第二层为隐含层,其单元数视所要描述的问题而定;第三层为输出层,它对输入模式的作用做出响应。它是一种将输入矢量扩展到高维空间中的
8、神经网络学习方法。RBF神经网络结构十分类似于多层感知器(MLP),也属于多层静态前向网络的范畴。7片(3)用于逼近函数神经网络训练和预测的思路在RBF网络中,隐含层所做的非线性变换通常是固定不变的,输入通过隐含层被映射到一个新的向量空间,输出层在新的向量空间中重新进行线性组合并且它对权值是线性的,当隐含层结点个数及作用函数类型和中心等参数确定后,对权值的学习就可采用线性优化的策略因而可以得到很快的学习速度,这也是R B F网络对控制尤其对自适应控制非常有吸引力的特点。构造和训练一个R B F神经网络就是要让映射函数经过学习,从而确定每隐层神经元参数(中心,宽度)的确定一般要采用非线性优化的策
9、略。BP网络一个重要功能就是非线性映射的能力,在船舶横摇运动中,若给出50组船舶输入波倾角P和输出横摇角T的数据,1)请分别建立一个BP网络和一个RBF神经网络,找出P和T之间的关系,并对建立的网络进行训练,要求误差为0.001,绘出训练后的输出和输入关系曲线和误差曲线,以及均方误差值mse。(先进行数据归一化,并请注明标题和横纵坐标)。说明参数对性能的影响,用两个参数表示影响即可,如神经元个数,spread的影响,不需要画图。(25分).1、代码:(1) BP网络:p= -0.2929 -0.3355 -0.3749 -0.4100 -04398 -0.4635 -0.4800 -0.488
10、8 -0. 4892 -0.4806;-0.4629 -0.4357 -0.3990 -0.3531 -0.2982 -0. 2349 -0. 1638 -0. 0859 -0.0021 0.0865;0. 1784 0.27250.36710.46090.55210.63940.72100. 7956 0.8618 0. 9183;0.9638 0.99761.01861.02631.02041.00060.96700.9199 0.8599 0. 7877;0.7044 0.61100.50900.39990.28550.16740.0475-0.0722 -0. 1899 -0. 303
11、7;t=-1.4008 -1.4112 -1.4036 -1.3784 -1.3365 -1.2790 -1.2073 -1. 1233-0.8158 -0. 7013 -0.5837 -0.4645 -0. 3450 -0. 2262 -0. 10890. 3329 0.4338 0.5299 0.6204 0.7044 0. 78111.0238 1. 0392 1.0427 1.0343 1.0145 0.98370.6950 0. 6171 0.5346 0.4482 0.3586 0.2664pn, minp? maxp, tn, mint, maxt =premnjx (pj t)
12、;%建立相应的BP网络net=newff (pn? tn, 5);net.trainParam. lr=0. 1;net. trainParam. epochs=2000;net.trainParam. goal=0. 001;%调用IRA工HGDM算法训练BP网络net =t rain (net, pn tn);%对BP网络进行仿真A= sin (net, pn);figured);title。输入与输出关系曲线);xlabelC输入向里);ylabelC输出向里);plot (pjtnJ r-,);hold on;plot (tn, A; b*);hold off;E=A-tn;N=mse
13、 (E);figure(2);title(误差曲线);xlabelC输入向篁);ylabelC输出向篁);plot (pn, E, g*,)0.84950. 94270. 17210.90880.89240.07610.00620.95810.8336-1.0287 -0. 9256;0. 1185 0.2276;0.9966;0.7675;-0.0211 -0.1190;(2) RBF网络%RBF建模%原始数据归一化p= -0.2929 -0.3355 -0.3749 -0.4100 -0. 4398 -0.4635 -0.4800 -0.4888 -0.4892 -0. 4806-0. 4
14、629 -0.4357 -0.3990 -0. 3531 -0. 2982 -0. 2349 -0. 1638 -0.0859 -0.0021 0. 08650. 1784 0.27250.9638 0.99760.7044 0.6110t=-l. 4008 -1. 41120.3671 0.46090. 55210. 63940.72100. 7956 0.8618 0.91831.0186 1.02631. 02041. 00060.96700.9199 0.8599 0.78770.5090 0.39990. 28550. 16740.0475-0.0722 -0. 1899 -0. 3037;-1. 4036 -1.3784 -1. 3365 -1. 2790 -1.2073 -1. 1233-0. 8158 -0.7013 -0.5837 -0. 4645 -0. 3450 -0.2262 -0. 10890.3329 0.4338 0.5299 0.6204 0.7044 0. 78111.0238 1. 0392 1.0427 1.0343 1.0145 0. 98370.6950 0. 6171 0.5346 0.4482 0. 3586 0. 2664pn, mnp, maxp, tn, mint, maxt =