目录:
★RLS算法基本原理
★RLS算法性能分析
★RLS算法的特点
★RLS算法简单应用
RLS算法基本原理
通用自适应滤波器的基本原理
u n
线性滤波器
输入信号
滤波器参数
nd
期望响应
性能评价
自适应方法
ny
输出信号
ne
误差
(
nWnW
)(
new
old
)1
)(
nW
(校正项)
在线更新
RLS算法基本原理
• 所谓自适应实现是指利用前一时刻获得的滤
波器参数,根据估计误差自动调节现时刻的
参数,使得某个代价函数达到最小,从而实
现最优滤波。
)(
nJ
{|
nuwndE
H
)(
2
}|)(
2
}|)({|
E
n
• 下降算法:最广泛使用的自适应算法
自适应梯度算法(LMS)
自适应高斯-牛顿算法(RLS)
{
RLS算法基本原理
• RLS算法:
(Recursive Least-Squares),递归最小二乘算法。
• 设计思路:
它是利用在已知n-1时滤波器抽头权系数的情况下,通
过简单的更新,求出n时刻的滤波器抽头权系数。
)(
nJ
2|)(
i
in
|
• 代价函数:使用指数加权的误差平方和
(0<λ<1,称为遗忘因子)
引入遗忘因子作用是离n时刻近的误差附较大权重,
离n时刻远的误差赋较小权重,确保在过去某一段时
间的观测数据被“遗忘”,从而使滤波器可以工作在
非 平稳状态下。
i
H
)(
wid
)(
)()n(
iu
RLS算法基本原理
估计误差定义:
i
i
)(
)(
)(y)(
id
i
H
)(
wid
)()n(
iu
可取滤波器的实际输入d*(i)作为期望响应d(i)。
将误差代入代价函数得到加权误差平方和的完整表达式
J
)n(
n
in
0
i
2
)(|
|)(*)(
iunwid
H
RLS算法基本原理
• 抽头权向量取的是n时刻的w(n)而不是i时
刻的w(i).
• i<=n时刻,
故代价函数J(n)比J(n)^更合理。
• 为了使代价函数取得最小值,
可通过对权向量求导
RLS算法基本原理
(
nJ
w
)()n(
nr
)(
)(
nwnR
)(
nw
R
)(
nr
)
1
解得:
0
其中:
)(
nR
)(
nr
n
i
0
n
i
0
in
)(
uiu
H
)(
i
(公式1)
in
)(
)(
idiu
*
(公式2)
由此可见指数加权最小二乘法的解转化为Wiener滤
波器的形式:
r1 R
wopt
下面研究它的自适应更新过程。