logo资料库

RLS自适应算法基本原理.ppt

第1页 / 共18页
第2页 / 共18页
第3页 / 共18页
第4页 / 共18页
第5页 / 共18页
第6页 / 共18页
第7页 / 共18页
第8页 / 共18页
资料共18页,剩余部分请下载后查看
目录: ★RLS算法基本原理 ★RLS算法性能分析 ★RLS算法的特点 ★RLS算法简单应用
RLS算法基本原理 通用自适应滤波器的基本原理   u n 线性滤波器 输入信号 滤波器参数  nd 期望响应 性能评价 自适应方法  ny 输出信号 ne  误差 ( nWnW )( new  old )1  )( nW (校正项) 在线更新
RLS算法基本原理 • 所谓自适应实现是指利用前一时刻获得的滤 波器参数,根据估计误差自动调节现时刻的 参数,使得某个代价函数达到最小,从而实 现最优滤波。 )( nJ {| nuwndE H )( 2 }|)(   2 }|)({| E n  • 下降算法:最广泛使用的自适应算法 自适应梯度算法(LMS) 自适应高斯-牛顿算法(RLS) {
RLS算法基本原理 • RLS算法: (Recursive Least-Squares),递归最小二乘算法。 • 设计思路: 它是利用在已知n-1时滤波器抽头权系数的情况下,通 过简单的更新,求出n时刻的滤波器抽头权系数。 )( nJ  2|)( i   in  | • 代价函数:使用指数加权的误差平方和 (0<λ<1,称为遗忘因子) 引入遗忘因子作用是离n时刻近的误差附较大权重, 离n时刻远的误差赋较小权重,确保在过去某一段时 间的观测数据被“遗忘”,从而使滤波器可以工作在 非 平稳状态下。 i H )( wid )( )()n( iu
RLS算法基本原理 估计误差定义: i i )( )( )(y)( id i  H )( wid )()n( iu 可取滤波器的实际输入d*(i)作为期望响应d(i)。 将误差代入代价函数得到加权误差平方和的完整表达式 J )n( n in    0 i  2 )(| |)(*)( iunwid  H
RLS算法基本原理 • 抽头权向量取的是n时刻的w(n)而不是i时 刻的w(i). • i<=n时刻, 故代价函数J(n)比J(n)^更合理。
• 为了使代价函数取得最小值, 可通过对权向量求导 RLS算法基本原理 ( nJ w  )()n( nr )( )( nwnR )( nw  R )( nr     ) 1 解得: 0 其中: )( nR )( nr n i 0  n i  0 in    )( uiu H )( i (公式1) in    )( )( idiu * (公式2) 由此可见指数加权最小二乘法的解转化为Wiener滤 波器的形式: r1 R wopt 下面研究它的自适应更新过程。
分享到:
收藏