欢迎来到冰点文库! | 帮助中心 分享价值,成长自我!
冰点文库
全部分类
  • 临时分类>
  • IT计算机>
  • 经管营销>
  • 医药卫生>
  • 自然科学>
  • 农林牧渔>
  • 人文社科>
  • 工程科技>
  • PPT模板>
  • 求职职场>
  • 解决方案>
  • 总结汇报>
  • ImageVerifierCode 换一换
    首页 冰点文库 > 资源分类 > DOCX文档下载
    分享到微信 分享到微博 分享到QQ空间

    多种最小二乘算法分析算法特点总结.docx

    • 资源ID:9436412       资源大小:593.33KB        全文页数:42页
    • 资源格式: DOCX        下载积分:3金币
    快捷下载 游客一键下载
    账号登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录 QQ登录
    二维码
    微信扫一扫登录
    下载资源需要3金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP,免费下载
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    多种最小二乘算法分析算法特点总结.docx

    1、多种最小二乘算法分析算法特点总结第一部分:程序设计思路、辨识结果分析和算法特点总结 4一:RLS遗忘因子法 4RLS遗忘因子法仿真思路和辨识结果 4遗忘因子法的特点: 5二:RFF遗忘因子递推算法 6仿真思路和辨识结果 6遗忘因子递推算法的特点: 7三:RFM限定记忆法 7仿真思路和辨识结果 7RFM限定记忆法的特点: 9四:RCLS偏差补偿最小二乘法 9仿真思路和辨识结果 9RCLS偏差补偿最小二乘递推算法的特点: 11五:增广最小二乘法 11仿真思路和辨识结果 11RELS增广最小二乘递推算法的特点: 13六:RGLS广义最小二乘法 14仿真思路和辨识结果 14RGLS广义最小二乘法的特点

    2、: 16七:RIV辅助变量法 16仿真思路和辨识结果 16RIV辅助变量法的特点: 18八:Cor-ls相关最小二乘法(二步法) 19仿真思路和辨识结果 19Cor-ls相关最小二乘法(二步法)特点: 20九:MLS多级最小二乘法 21仿真思路和辨识结果 21MLS多级最小二乘法的特点: 24十:yule_walker辨识算法 24仿真思路和辨识结果 24yule_walker辨识算法的特点: 26第二部分:matlab程序 26一:RLS遗忘因子算法程序 26二:RFF遗忘因子递推算法 28三:RFM限定记忆法 30四:RCLS偏差补偿最小二乘递推算法 33五:RELS增广最小二乘的递推算法

    3、 35六;RGLS 广义最小二乘的递推算法 37七:Tally辅助变量最小二乘的递推算法 41八:Cor-ls相关最小二乘法(二步法) 44九:MLS多级最小二乘法 46十yule_walker辨识算法 51第一部分:程序设计思路、辨识结果分析和算法特点总结一:RLS遗忘因子法RLS遗忘因子法仿真思路和辨识结果仿真对象如下:其中, v( k )为服从N (0,1) 分布的白噪声。输入信号u ( k) 采用M 序列,幅度为 1。M 序列由 9 级移位寄存器产生,x(i)=x(i-4)x(i-9)。选择如下辨识模型:加权阵取 = I。衰减因子 = 0.98,数据长度 L = 402。辨识结果与理论

    4、值比较,基本相同。辨识结果可信:Estimate =-1.46660.65030.97360.3035遗忘因子法的特点:对老数据加上遗忘因子,以降低老数据对辨识的影响,相对增加新数据对辨识的影响,不会出现“数据饱和”现象。如模型噪声是有色噪声,则?是有偏估计量。常用作其他辨识方式的起步,以获得其他方式的初始值。二:RFF遗忘因子递推算法仿真思路和辨识结果辨识模型与遗忘因子法所用模型相同。其中, 0 1为遗忘因子, 此处取0.98。 数据长度L=402, 初始条件:参数a1 a2 b1 b2的估计值:ans =-1.49770.68631.19030.4769待估参数变化过程如图所示:遗忘因子递

    5、推算法的特点:从上面两个例子可以看出对于相同的仿真对象,一次算法和递推算法结果基本一致,但递推算法可以实现在线实时辨识,而且可以减少计算量和存储量。三:RFM限定记忆法仿真思路和辨识结果辨识模型与遗忘因子法所用模型相同。辨识结果与理论值比较,基本相同。辨识结果可信:参数 a1 a2 b1 b2 的估计值为:Theta_a =-1.51280.70990.83930.4416待估参数的过渡过程如下:RFM限定记忆法的特点:辨识所使用的数据长度保持不变,每增加一个新数据就抛掉一个老数据,使参数估计值始终只依赖于有限个新数据所提供的新消息,克服了遗忘因子法不管多老的数据都在起作用的缺点,因此该算法更

    6、能有效的克服数据饱和现象。四:RCLS偏差补偿最小二乘法仿真思路和辨识结果辨识模型与遗忘因子法所用模型相同。辨识结果与理论值比较,基本相同。辨识结果可信:参数a1 a2 b1 b2的估计值为:ans =-1.49160.70051.03650.4271RCLS偏差补偿最小二乘递推算法的特点:算法思想:在最小二乘参数估计值的基础上,引进补偿项W2C-1D ?0,则获得了参数的无偏估计。针对模型噪声来说,RCLS算法的适应能力比RLS更好。五:增广最小二乘法仿真思路和辨识结果考虑如下仿真对象:其中, 为服从N(0,1)分布的白噪声。输入信号采用 M 序列,幅度为 1。M 序列由 9 级移位寄存器产

    7、生,x(i)=x(i-4)x(i-9)。选择如下的辨识模型:观测数据长度取L =402 。加权阵取=I。辨识结果与理论值比较,基本相同,同时又能获得噪声模型的参数估计。辨识结果可信:参数a1、a2、b1、b2、d1、d2估计结果:ans =-1.50000.70001.00010.5002-0.99990.2000RELS增广最小二乘递推算法的特点:增广最小二乘的递推算法对应的噪声模型为滑动平均噪声,扩充了参数向量和数据向量H(k)的维数,把噪声模型的辨识同时考虑进去。最小二乘法只能获得过程模型的参数估计,而增广最小二乘法同时又能获得噪声模型的参数估计,若噪声模型为平均滑动模型,则只能用REL

    8、S算法才能获得无偏估计。当数据长度较大时,辨识精度低于极大似然法。六:RGLS广义最小二乘法仿真思路和辨识结果模型结构选择:模型结构选用:其中,各个参数的真值为:广义最小二乘算法为:辨识结果与理论值比较,基本相同,同时又能获得噪声传递系数的参数估计。辨识结果可信:参数a1 a2 b1 b2的估计结果:ans =-1.50580.69720.93160.4833噪声传递系数c1 c2的估计结果:ans =0.62030.2210RGLS广义最小二乘法的特点:该算法用于自回归输入模型,是一种迭代的算法。其基本思想是基于对数据先进行一次滤波处理,后利用普通最小二乘法对滤波后的数据进行辨识,进而获得无

    9、偏一致估计。但是当过程的输出信噪比比较大或模型参数较多时,这种数据白色化处理的可靠性就会下降,辨识结果往往会是有偏估计。数据要充分多,否则辨识精度下降。模型阶次不宜过高。初始值对辨识结果有较大影响。七:RIV辅助变量法仿真思路和辨识结果辨识模型与遗忘因子法所用模型相同,只不过此处噪声为有色噪声,产生过程为:e(k)=v(k)+0.5v(k-1)+0.2v(k-2),v(k)为0均值的不相关随机噪声。按照Tally法选取辅助变量x(k)=z(k-nd), nd为误差传递函数的阶数,此处为2.则有 辅助变量法的递推公式可写成:辨识结果与理论值比较,基本相同。辨识结果可信:参数a1 a2 b1 b2

    10、的估计结果:ans =-1.53140.74610.99990.4597RIV辅助变量法的特点:适当选择辅助变量,使之满足相应条件,参数估计值就可以是无偏一致。估计辅助变量法的计算量与最小二乘法相当,但辨识效果却比最小二乘法好的多。尤其当噪声是有色的,而噪声的模型结构又不好确定时,增广最小二乘法和广义最小二乘法一般都不好直接应用,因为他们需要选用特定的模型结构,而辅助变量法不需要确定噪声的模型结构,因此辅助变量法就显得更为灵活,但辅助变量法不能同时获得噪声模型的参数估计。八:Cor-ls相关最小二乘法(二步法)仿真思路和辨识结果辨识模型与遗忘因子法所用模型相同:,e(k)=v(k)+0.5v(

    11、k-1)+0.2v(k-2),v(k)为0均值的不相关随机噪声。Cor-ls的递推公式可写成:其中:,M(k)为输入M序列。初始条件:辨识结果与理论值比较,基本相同,辨识结果可信:参数a1 a2 b1 b2的估计结果:ans =-1.48960.68581.01680.4362Cor-ls相关最小二乘法(二步法)特点:把辨识分成两步进行:第一步:利用相关分析法获得对象的非参数模型(脉冲响应或相关函数);第二步:利用最小二乘法、辅助变量法或增广最小二乘法等,进一步求的对象的参数模型。如果模型噪声与输入无关,则Cor-ls相关最小二乘法(二步法)可以得到较好的辨识结果。Cor-ls相关最小二乘法(

    12、二步法)实质上是先对数据进行一次相关分析,滤除了有色噪声的影响,再利用最小二乘法必然就会改善辨识结果。能适应较宽广的噪声范围,计算量不大,初始值对辨识结果影响较小。但要求输入信号与噪声不相关。九:MLS多级最小二乘法仿真思路和辨识结果仿真对象如下:其中,u (k)是输入变量,此处为 M 序列;v (k ) 是零均值、方差为 1 的不相关随机噪声,通过控制的大小来控制信噪比。辨识模型结构选用:其中,辨识过程如下: 第一级,辅助模型参数辨识 原模型可写为:利用最小二乘法可获得辅助模型的参数无偏一致估计值:数据长度 L=400,第二级,过程模型参数辨识:根据最小二乘算法可以获得过程模型的参数估计值为

    13、:第三级,噪声模型参数辨识:根据最小二乘算法可以获得过程模型的参数估计值为辨识结果与理论值比较,基本相同。辨识结果可信:第一级 辅助模型参数 e1 e2 e3 e3 e4 f1 f2 f3 f4 辨识结果:E =1.90621.44540.52790.0613-0.00260.7988-0.8694-1.3037-0.6318第二级 过程模型参数 a1 a2 a3 b1 b2 辨识结果:E2 =0.93040.15960.01130.7998-1.6502第三级 噪声模型参数 c1 c2 辨识结果:E3 =0.97500.3824MLS多级最小二乘法的特点:当信噪比较大时,采用广义最小二乘法可

    14、能会出现多个局部收敛点,解决这个问题的方法可用多级最小二乘法,一般来说多级最小二乘法包含三级辨识过程。利用输入输出数据,通过多级最小二乘法,可分别求的辅助模型,过程模型和噪声模型的参数估计值。在高噪声的情况下,多级最小二乘法明显优于广义最小二乘法,其收敛点唯一。十:yule_walker辨识算法仿真思路和辨识结果仿真对象如下:,z (k)是可观测变量;v (k )是均值为零,方差为 1 的不相关随机噪声;数据长度取 L=1024。相关函数按下式计算 :参数的估计算法按下式计算:辨识结果与理论值比较,基本相同,同时又能获得噪声模型的参数估计。辨识结果可信:辨识结果为:Theta =0.85970

    15、.2955-0.0034d =1.0025yule_walker辨识算法的特点:yule_walker辨识算法可以方便的辨识形如的参数估计值。第二部分:matlab程序一:RLS遗忘因子算法程序clear clc%=%最小二乘法辨识对象% Z(k+2)=1.5*Z(k+1)-0.7*Z(k)+u(k+1)+0.5*u(k)+v(k)%=产生M序列作为输入= x=0 1 0 1 1 0 1 1 1; %初始值 n=403; %n为脉冲数目M=; %存放M序列for i=1:n temp=xor(x(4),x(9);M(i)=x(9);for j=9:-1:2x(j)=x(j-1);endx(1)

    16、=temp;end;%产生高斯白噪声v=randn(1,400);z=; z(1)=-1;z(2)=0;u=0.98;% 遗忘因子 L=400;for i=3:402z(i)=1.5*z(i-1)-0.7*z(i-2)+M(i-1)+0.5*M(i-2)+v(i-2);zstar(i)=z(i)*u(L-i+2);endH=zeros(400,4);for i=1:400H(i,1)=-z(i+1)*u(L-i); H(i,2)=-z(i)*u(L-i); H(i,3)=M(i+1)*u(L-i); H(i,4)=M(i)*u(L-i);endEstimate=inv(H*H)*H*(zsta

    17、r(3:402)二:RFF遗忘因子递推算法%最小二乘遗忘因子的递推算法仿真对象%Z(k+2)=1.5*Z(k+1)-0.7*Z(k)+u(k+1)+0.5*u(k)+v(k)%=clear clc%=400 个产生M序列作为输入=x=0 1 0 1 1 0 1 1 1; %initial value n=403; %n为脉冲数目M=; %存放M 序列for i=1:ntemp=xor(x(4),x(9);M(i)=x(9);for j=9:-1:2x(j)=x(j-1);endx(1)=temp;end%=产生均值为0,方差为1 的高斯白噪声=v=randn(1,400);%=产生观测序列z=

    18、z=zeros(402,1);z(1)=-1;z(2)=0;for i=3:402z(i)=1.5*z(i-1)-0.7*z(i-2)+M(i-1)+0.5*M(i-2)+v(i-2);end%=递推求解=P=10*eye(4); %估计方差Theta=zeros(4,401); %参数的估计值,存放中间过程估值 Theta(:,1)=0.001;0.001;0.001;0.001;K=zeros(4,400); %增益矩阵K=10;10;10;10;u=0.98; %遗忘因子for i=3:402h=-z(i-1);-z(i-2);M(i-1);M(i-2);K=P*h*inv(h*P*h+

    19、u);Theta(:,i-1)=Theta(:,i-2)+K*(z(i)-h*Theta(:,i-2);P=(eye(4)-K*h)*P/u;end%=输出结果及作图=disp(参数a1 a2 b1 b2的估计值:)Theta(:,401)i=1:401;figure(1)plot(i,Theta(1,:),i,Theta(2,:),i,Theta(3,:),i,Theta(4,:)title(待估参数过渡过程)三:RFM限定记忆法%限定记忆最小二乘的递推算法辨识对象%Z(k+2)=1.5*Z(k+1)-0.7*Z(k)+u(k+1)+0.5*u(k)+v(k)%=clear clc%=产生M

    20、序列作为输入=x=0 1 0 1 1 0 1 1 1; %initial value n=403; %n为脉冲数目M=; %存放M 序列for i=1:n temp=xor(x(4),x(9);M(i)=x(9);for j=9:-1:2x(j)=x(j-1);endx(1)=temp;end%=产生均值为0,方差为1 的高斯白噪声=v=randn(1,402);%=产生观测序列z=z=zeros(402,1);z(1)=-1;z(2)=0;for i=3:402z(i)=1.5*z(i-1)-0.7*z(i-2)+M(i-1)+0.5*M(i-2)+v(i);end%递推求解P_a=100*

    21、eye(4); %估计方差Theta_a=3;3;3;3;L=20; %记忆长度for i=3:L-1 %利用最小二乘递推算法获得初步参数估计值和P阵h=-z(i-1);-z(i-2);M(i-1);M(i-2);K=P_a*h*inv(h*P_a*h+1);Theta_a=Theta_a+K*(z(i)-h*Theta_a); P_a=(eye(4)-K*h)*P_a;endfor k=0:380hL=-z(k+L-1);-z(k+L-2);M(k+L-1);M(k+L-2);%增加新数据的信息K_b=P_a*hL*inv(1+hL*P_a*hL); Theta_b=Theta_a+K_b*

    22、(z(k+L)-hL*Theta_a); P_b=(eye(4)-K_b*hL)*P_a;hk=-z(k+L);-z(k+L-1);M(k+L);M(k+L-1);%去掉老数据的信息K_a=P_b*hk*inv(1+hk*P_b*hk); Theta_a=Theta_b-K_a*(z(k+L+1)-hk*Theta_b); P_a=(eye(4)+K_a*hk)*P_b;Theta_Store(:,k+1)=Theta_a;end%=输出结果及作图=disp(参数 a1 a2 b1 b2 的估计值为:) Theta_ai=1:381;figure(1)plot(i,Theta_Store(1,

    23、:),i,Theta_Store(2,:),i,Theta_Store(3,:),i,Theta_Store(4,:)title(待估参数过渡过程)四:RCLS偏差补偿最小二乘递推算法%偏差补偿最小二乘的递推算法辨识对象%Z(k+2)=1.5*Z(k+1)-0.7*Z(k)+u(k+1)+0.5*u(k)+v(k)%=clear clc%=产生M序列作为输入=x=0 1 0 1 1 0 1 1 1; %initial value n=403; %n为脉冲数目M=; %存放M 序列for i=1:n temp=xor(x(4),x(9); M(i)=x(9);for j=9:-1:2x(j)=x

    24、(j-1);endx(1)=temp;end %=产生均值为0,方差为1 的正态分布噪声=v=random(Normal,0,1,1,400);%=产生观测序列z=z=zeros(402,1);z(1)=-1;z(2)=0;for i=3:402z(i)=1.5*z(i-1)-0.7*z(i-2)+M(i-1)+0.5*M(i-2)+v(i-2);end%=递推求解=%赋初值P=100*eye(4); %估计方差 Theta=zeros(4,401); %参数的估计值,存放中间过程估值 Theta(:,1)=3;3;3;3;K=10;10;10;10; %增益 J=0;ThetaC=zeros

    25、(4,401); %偏差补偿后的估计值 ThetaC(:,1)=2;3;1;3.5;D=1 0 0 0;0 1 0 0;0 0 0 0;0 0 0 0;for i=3:402h=-z(i-1);-z(i-2);M(i-1);M(i-2);J=J+(z(i-1)-h*Theta(:,i-1)2/(1+h*P*h);K=P*h*inv(h*P*h+1);Theta(:,i-1)=Theta(:,i-2)+K*(z(i)-h*Theta(:,i-2); P=(eye(4)-K*h)*P;endes=J/(i-1)*(1+(ThetaC(:,i-2)*D*Theta(:,i-1); ThetaC(:,

    26、i-1)=Theta(:,i-1)+(i-1)*es*P*D*ThetaC(:,i-2);%=输出参数估计结果及作图=disp(参数a1 a2 b1 b2的估计值为:) Theta(:,401)i=1:401;figure(1) plot(i,Theta(1,:),i,Theta(2,:),i,Theta(3,:),i,Theta(4,:) title(待估参数过渡过程)五:RELS增广最小二乘的递推算法%增广最小二乘的递推算法辨识对象%Z(k+2)=1.5*Z(k+1)-0.7*Z(k)+u(k+1)+0.5*u(k)-v(k+1)+0.2*v(k)%=clear clc%=产生M序列作为输入=x=0 1 0 1 1 0 1 1 1; %initial valuen=403; %n为脉冲数目M=; %存放M 序列for i=1:n temp=xor(x(4),x(9);M(i)=x(9);for j=9:-1:2x(j)=x(j-1);endx(1)=temp;end %=产生均值为0,方差为1 的高斯白噪声=v=randn(1,402);%=产生观测序列z=z=zeros(402,1);z(1)=-1;z(2)=0;for i=3:402z(i)=


    注意事项

    本文(多种最小二乘算法分析算法特点总结.docx)为本站会员主动上传,冰点文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰点文库(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

    copyright@ 2008-2023 冰点文库 网站版权所有

    经营许可证编号:鄂ICP备19020893号-2


    收起
    展开