本内容为博主在学习TLS算法的过程中的一些总结对比,资料来源于张贤达的《矩阵分析》以及《现代信号处理》,部分来源于网络。

自适应滤波首先得从维纳滤波讲起,LS以及LMS本质上都是因为不知道统计特性用一段时间内的数据来代替期望值,本质还是要收敛到维纳解。

1. 维纳滤波

因果维纳滤波器的输出 y(n)y(n):

y(n)=s^(n)=x(x)h(n)=k=0+hkx(nk)y(n) = \hat{s}(n) = x(x) * h(n) = \sum_{k=0}^{+\infin}{h_kx(n-k)}

设期望信号为 d(n)d(n),误差信号 e(n)e(n),以及均方值 E[e(n)2]E\left[|e(n)|^2\right]分别表示为:

e(n)=d(n)y(n)=s(n)y(n)e(n)=d(n)-y(n)=s(n)-y(n)

代价函数为 J(n)=E[e(n)2]=E[e(n)e(n)]\Rightarrow J(n)=E\left[|e(n)|^2\right]=E\left[e(n) e^*(n)\right]

设滤波器参数h(n)h(n)为:

h(k)=ak+jbk,k=0,1,2,h(k)=a_k+j b_k, k=0,1,2, \ldots

求代价函数的偏导,使均方误差最小,满足:

minhkJ(n)J(n)=J(n)hk=0E[e(n)2]ak+jE[e(n)2]bk=0k=0,1,2,\begin{aligned} & \min _{h_k} J(n) \rightarrow \nabla J(n)=\frac{\partial J(n)}{\partial h_k}=0 \\ & \frac{\partial E\left[|e(n)|^2\right]}{\partial a_k}+j \frac{\partial E\left[|e(n)|^2\right]}{\partial b_k}=0 \quad k=0,1,2, \ldots \end{aligned}

记梯度算子为

k=ak+jbkk=0,1,2,kJ(n)=E{e(n)e(n)}ak+jE{e(n)e(n)}bk\begin{gathered} \nabla_k=\frac{\partial}{\partial a_k}+j \frac{\partial}{\partial b_k} \quad k=0,1,2, \ldots \\ \nabla_k J(n)=\frac{\partial E\left\{e(n) e^*(n)\right\}}{\partial a_k}+j \frac{\partial E\left\{e(n) e^*(n)\right\}}{\partial b_k} \end{gathered}

上式展开为

kE[e(n)2]=E[e(n)ake(n)+e(n)ake(n)+je(n)bke(n)+je(n)bke(n)]\nabla_k E\left[|e(n)|^2\right]=E\left[\frac{\partial e(n)}{\partial a_k} e^*(n)+\frac{\partial e^*(n)}{\partial a_k} e(n)+j \frac{\partial e(n)}{\partial b_k} e^*(n)+j \frac{\partial e^*(n)}{\partial b_k} e(n)\right]

e(n)=s(n)y(n)=s(n)k=0+hkx(nk)=s(n)k=0+(a(k)+jb(k))x(nk)\begin{aligned} e(n)=s(n)-y(n) & =s(n)-\sum_{k=0}^{+\infty} h_k x(n-k) \\ & =s(n)-\sum_{k=0}^{+\infty}(a(k)+j b(k)) x(n-k) \end{aligned}

e(n)ak=x(nk)e(n)bk=jx(nk)e(n)ak=x(nk)e(n)bk=jx(nk)\begin{aligned} & \frac{\partial e(n)}{\partial a_k}=-x(n-k) \\ & \frac{\partial e(n)}{\partial b_k}=-j x(n-k) \\ & \frac{\partial e^*(n)}{\partial a_k}=-x^*(n-k) \\ & \frac{\partial e^*(n)}{\partial b_k}=j x^*(n-k) \end{aligned}

将上述(8)式代入得

kJ(n)=kE[e(n)2]=2E[x(nk)e(n)]\nabla_k J(n)=\nabla_k E\left[|e(n)|^2\right]=-2 E\left[x^*(n-k) e(n)\right]

即:

E[x(nk)e(n)]=0E\left[x^*(n-k) e(n)\right] = 0

分析: 如果要使滤波器的均方误差达到最小值,则误差信号和输入信号正交,也成为正交性原理

由(10)式,可得:

E[x(nk)eopt(n)]=0,k=0,1,2,E[x(nk)(d(n)i=0+hopt,ix(ni))=0\begin{aligned} & E\left[x^*(n-k) e_{o p t}(n)\right]=0, k=0,1,2, \ldots \\ & \Rightarrow E\left[x(n-k)\left(d(n)-\sum_{i=0}^{+\infty} h_{o p t, i} x(n-i)\right)^*\right\rceil=0 \end{aligned}

将输入信号分配进去, 得到

rxd(k)=i=0+hopt,irxx(ik)k=0,1,2,r_{x d}(-k)=\sum_{i=0}^{+\infty} h_{o p t, i}^* r_{x x}(i-k) \quad k=0,1,2, \ldots

维纳-霍夫 (Wiener-Hopf)方程:

rxd(k)=i=0+hopt,irxx(ki)k=0,1,2,r_{x d}(k)=\sum_{i=0}^{+\infty} h_{o p t, i} r_{x x}(k-i) \quad k=0,1,2, \ldots

列出N个时刻的等式,改写为矩阵形式得:

Rxd=Rxxh,即h=hopt=Rxx1RxdR_{xd} = R_{xx}h,即 h = h_{opt} = R^{-1}_{xx}R_{xd}

2. LMS自适应滤波

针对于上面的维纳解,我们需要知道 RxxRxdR_{xx},R_{xd},而且矩阵求逆计算量非常大,同时当信号非平稳时 RxxRxdR_{xx},R_{xd}还可能随时间而变化,这种情况下我们可以用递归迭代的算法进行求解。

设误差信号为:

e(n)=d(n)y(n)=d(n)xT(n)w(n)=d(n)wT(n)x(n)e(n)=d(n)-y(n)=d(n)-x^T(n) w(n)=d(n)-\boldsymbol{w}^T(n) \boldsymbol{x}(n)

均方误差为:

J=E[e2(n)]=E[d2(n)]+wT(n)E[x(n)xT(n)]w(n)2E[d(n)xT(n)]w(n)\begin{aligned} & J=E\left[e^2(n)\right]=E\left[d^2(n)\right]+\boldsymbol{w}^T(n) E\left[\boldsymbol{x}(n) \boldsymbol{x}^T(n)\right] \boldsymbol{w}(n) \\ & -2 E\left[d(n) \boldsymbol{x}^T(n)\right] \boldsymbol{w}(n) \end{aligned}

LMS自适应算法直接利用瞬态均方误差对瞬时抽头向量(滤波器系数) 求梯度:

^J=(e2(n))w(n)=[2e(n)e(n)w1(n),2e(n)e(n)w2(n),,2e(n)e(n)wM(n)]T=2e(n)x(n)\hat{\nabla} \boldsymbol{J}=\frac{\partial\left(e^2(n)\right)}{\partial w(n)}=\left[2 e(n) \frac{\partial e(n)}{\partial w_1(n)}, 2 e(n) \frac{\partial e(n)}{\partial w_2(n)}, \cdots, 2 e(n) \frac{\partial e(n)}{\partial w_M(n)}\right]^T=-2 e(n) \boldsymbol{x}(n)

由此可得传统LMS自适应滤波算法流程如下:

y(n)=wT(n)x(n)e(n)=d(n)y(n)w(n+1)=w(n)+2μe(n)x(n)\begin{aligned} & y(n)=\boldsymbol{w}^T(n) \boldsymbol{x}(n) \\ & \boldsymbol{e}(n)=d(n)-y(n) \\ & \boldsymbol{w}(n+1)=\boldsymbol{w}(n)+2 \mu e(n) \boldsymbol{x}(n) \end{aligned}

3. LS自适应滤波(RLS)

LS一般都称作最小二乘法,自适应滤波时常采用RLS算法,即递归最小二乘法。(可以理解为LS解的一种迭代求法,否则和维纳解一样是需要矩阵求逆)

对比LMS的代价函数:

JLMS=E{d(n)wHu(n)2}JLS=id(i)wHu(i)2J_{LMS} = E\left\{|d(n)-\bf{w^Hu(n)}|^2\right\} \\ J_{LS} = \sum_i|d(i)-\bf{w^Hu(i)}|^2

也就是说,其实本质都是一样的,一个是求和,一个是求期望,如果 ii 的取值够大,那么两个应该是一样的。我们同样对上述的代价函数求梯度,得到:

J=e2=eHe=(bAw)H(bAw)\mathrm{J}=\|\overrightarrow{\mathrm{e}}\|^2=\vec{e}^{\mathrm{H}} \overrightarrow{\mathrm{e}}=(\overrightarrow{\mathrm{b}}-\mathrm{A} \overrightarrow{\mathrm{w}})^{\mathrm{H}}(\overrightarrow{\mathrm{b}}-\mathrm{A} \overrightarrow{\mathrm{w}})

J=bHbbHAwwHAHb+wHAHAw\mathrm{J}=\overrightarrow{\mathrm{b}}^{\mathrm{H}} \overrightarrow{\mathrm{b}}-\overrightarrow{\mathrm{b}}^{\mathrm{H}} \mathrm{A} \overrightarrow{\mathrm{w}}-\overrightarrow{\mathrm{w}}^{\mathrm{H}} \mathrm{A}^{\mathrm{H}} \overrightarrow{\mathrm{b}}+\overrightarrow{\mathrm{w}}^{\mathrm{H}} \mathrm{A}^{\mathrm{H}} \mathrm{A} \overrightarrow{\mathrm{w}}

其中A是输入矩阵,b是期望值:

J=2 AHb+2 AHAw\nabla \mathrm{J}=-2 \mathrm{~A}^{\mathrm{H}} \overrightarrow{\mathrm{b}}+2 \mathrm{~A}^{\mathrm{H}} \mathrm{A} \overrightarrow{\mathrm{w}}

AHAw^=AHb\mathrm{A}^{\mathrm{H}} \mathrm{A} \overrightarrow{\hat{w}}=\mathrm{A}^{\mathrm{H}} \overrightarrow{\mathrm{b}}

可以得到方程的解:

w^=(AHA)1 AHb\overrightarrow{\hat{w}}=\left(\mathrm{A}^{\mathrm{H}} \mathrm{A}\right)^{-1} \mathrm{~A}^{\mathrm{H}} \overrightarrow{\mathrm{b}}

AHA\mathrm{A}^{\mathrm{H}} \mathrm{A} 就是维纳解中的 RxxR_{xx} ,AHbA^H\overrightarrow{b} 就是 RxdR_{xd}

所谓的最小二乘估计,是指在每个时刻对所有已输入的信号而言,误差平方和最小。LS用于接收到的数据块长度一定,并且数据、噪声(干扰)的统计特性未知或者非平稳的情况,其优化目标是使得基于该数据块的估计与目标数据块间加权的欧几里德距离最小。

3. 总体最小二乘法(TLS)

TLS算法可以理解为LS算法的一种改进,在LS算法中,我们考虑的误差 e=d(i)wHu(i)e = |d(i)-\bf{w^Hu(i)}| ,实际上的意思就是我确认我每个时刻的输入 u(i)u(i)是准确的,偏差只出现在拟合中;而TLS算法则是考虑输入输出都存在噪声的情况,即我观测到的输入也可能是不准确的。这两种差别可以通过下面的直线拟合图来体会:

image-20230208165637898
其中,虚线表示LS的误差,实线表示的是TLS的误差。可以直观的感受到其实TLS的拟合效果会更好,使用的是点到直线的距离。实际上,这也比较符合我们实际应用,因为输入数据是我们测量得到的,那么就一定会存在测量误差,使用TLS算法的最优化问题就是最小化输入误差和输出误差的和。
  • 问题提出: 给定数据向量 bb 和一个数据矩阵 AA ,考虑一个线性方程 Ax=bAx = b,求 xx 的最优解。

我们在以前求解这个问题时,前提条件是 bb 收到了高斯白噪声干扰,采用最小二乘法能够使得误差平方和最小 ,称为最小方差无偏估计(MVU)。

x^=(AHA)1 AHb\bf{\hat{x}}=\bf{\left(\mathrm{A}^{\mathrm{H}} \mathrm{A}\right)^{-1} \mathrm{~A}^{\mathrm{H}} \mathrm{b}}

如果说,A 存在误差或者扰动,那么最小二乘估计从统计观点看就不是最优的,它将是有偏的。

上面的求解等价于:

在条件Ax=b+Δb约束下,minxΔb在条件\quad Ax = b + \Delta b \quad 约束下,\underset{x}{min}||\Delta b||

而TLS考虑的问题是:

(A+E)x=b+eTLS:minΔA,Δb,xΔAF2+Δb22 subject to (A+ΔA)x=b+Δb\bf{(A + E)x = b + e} \\ \operatorname{TLS}: \quad \min _{\Delta \mathbf{A}, \Delta \mathbf{b}, \mathbf{x}}\|\Delta \mathbf{A}\|_{\mathrm{F}}^2+\|\Delta \mathbf{b}\|_2^2 \\ \text { subject to }(\mathbf{A}+\Delta \mathbf{A}) \mathbf{x}=\mathbf{b}+\Delta \mathbf{b}

其中 F\mathrm{F} 表示Frobineous范数。注意,约束条件 (A+ΔA)x=b+Δb(\mathbf{A}+\Delta \mathbf{A}) \mathbf{x}=\mathbf{b}+\Delta \mathbf{b} 有时也表示为 (b+Δb)Range(A+ΔA)(\mathbf{b}+\Delta \mathbf{b}) \in \operatorname{Range}(\mathbf{A}+\Delta \mathbf{A})

  • 一种求解方法

根据形成的TLS问题,我们可以构建如下的拉格朗日函数:

L(ΔA,Δb,λ)=ΔAF2+Δb22+2λ((A+ΔA)xbΔb)\mathcal{L}(\Delta \mathbf{A}, \Delta \mathbf{b}, \boldsymbol{\lambda})=\|\Delta \mathbf{A}\|_{\mathrm{F}}^2+\|\Delta \mathbf{b}\|_2^2+2 \boldsymbol{\lambda}((\mathbf{A}+\Delta \mathbf{A}) \mathbf{x}-\mathbf{b}-\Delta \mathbf{b})

通过利用KKT条件,我们知道,当且仅当存在 λRm\lambda \in \mathbb{R}^m 使得

LΔA=2ΔA+2λx=0LΔb=2Δb2λ=0(A+ΔA)x=b+Δb\begin{aligned} & \nabla \mathcal{L}_{\Delta \mathbf{A}}=2 \Delta \mathbf{A}+2 \boldsymbol{\lambda} \mathbf{x}^{\top}=\mathbf{0} \\ & \nabla \mathcal{L}_{\Delta \mathbf{b}}=2 \Delta \mathbf{b}-2 \boldsymbol{\lambda}=\mathbf{0} \\ & (\mathbf{A}+\Delta \mathbf{A}) \mathbf{x}=\mathbf{b}+\Delta \mathbf{b} \end{aligned}

结合上述条件(1)和(2),可知 ΔA=Δbx\Delta \mathbf{A}=-\Delta \mathbf{b} \mathbf{x}^{\top} ,将该结果带入上式(3)可知,因此

Δb=Axbx2+1\Delta \mathbf{b}=\frac{\mathbf{A x}-\mathbf{b}}{\|\mathbf{x}\|^2+1}

随后,将该结果带入 ΔA=Δbx\Delta \mathbf{A}=-\Delta \mathbf{b x} ,因此

ΔA=(Axb)xx2+1\Delta \mathbf{A}=-\frac{(\mathbf{A x}-\mathbf{b}) \mathbf{x}^{\top}}{\|\mathbf{x}\|^2+1}

随后,我们将 Δb\Delta \mathbf{b}ΔA\Delta \mathbf{A} 带入目标函数,因此目标函数可以写作

minΔA,Δb,x(Axb)2x2+1\min _{\Delta \mathbf{A}, \Delta \mathbf{b}, \mathbf{x}} \frac{(\mathbf{A} \mathbf{x}-\mathbf{b})^2}{\|\mathbf{x}\|^2+1}

上面的推导过程也可以写成:

([b,A]+[e,E])[1x]=0([-b, A]+[-e, E])\left[\begin{array}{l} 1 \\ x \end{array}\right]=0

或等价为

(B+D)z=0(B+D) z=0

式中, 增广矩阵 B=[b,A]\boldsymbol{B}=[-\boldsymbol{b}, \boldsymbol{A}] 和扰动矩阵 D=[e,E]\boldsymbol{D}=[-\boldsymbol{e}, \boldsymbol{E}] 均为 m×(n+1)m \times(n+1) 维矩阵, 而 z=[1x]z=\left[\begin{array}{l}1 \\ x\end{array}\right](n+1)×1(n+1) \times 1 向量,有:

Bz=r=Dz\bf{Bz = r =-Dz}

rr 可以被视为矩阵方程 Bz=0Bz = 0 的总体最小二乘解 z的误差向量。

约束条件为:

zHz=1z^Hz = 1

注:此处明显z的模>1,也可以假设模等于任意大于1的常数,在下面的求偏导中都会消去,不影响结果。

优化问题可以写为:

minBz22=minr2\bf{min ||Bz||_2^2 = min ||r||^2}

定义目标函数为

J=Bz22+λ(1zHz)J=\|\boldsymbol{B} \boldsymbol{z}\|_2^2+\lambda\left(1-\boldsymbol{z}^{\mathrm{H}} \boldsymbol{z}\right)

式中, λ\lambda 为 Lagrange 乘数。注意到 Bz22=zHBHBz\|\boldsymbol{B} \boldsymbol{z}\|_2^2=\boldsymbol{z}^{\mathrm{H}} \boldsymbol{B}^{\mathrm{H}} \boldsymbol{B} \boldsymbol{z}, 故由 Jz=0\frac{\partial J}{\partial \boldsymbol{z}^*}=0, 得到

BHBz=λz\boldsymbol{B}^{\mathrm{H}} \boldsymbol{B} \boldsymbol{z}=\lambda \boldsymbol{z}

这表明, Lagrange 乘数应该选择为矩阵 BHB\boldsymbol{B}^{\mathrm{H}} \boldsymbol{B} 的最小特征值 (即 B\boldsymbol{B} 的最小奇异值的平方桹), 而总体最小二乘解 z\boldsymbol{z} 是与最小奇异值 λ\sqrt{\lambda} 对应的右奇异向量。
m×(n+1)m \times(n+1) 增广矩阵 B\boldsymbol{B} 的奇异值分解为

B=UΣVH\boldsymbol{B}=\boldsymbol{U} \boldsymbol{\Sigma} \boldsymbol{V}^{\mathrm{H}}

xTLS=1v(1,n+1)[v(2,n+1)v(n+1,n+1)]\boldsymbol{x}_{\mathrm{TLS}}=\frac{1}{v(1, n+1)}\left[\begin{array}{c} v(2, n+1) \\ \vdots \\ v(n+1, n+1) \end{array}\right]

其中, v(i,n+1)v(i, n+1)V\boldsymbol{V} 的第 n+1n+1 列的第 ii 个元素。

详细过程参照张贤达《矩阵分析》P409。

  • TLS的两个解释

1)几何解释

如果令 aiTa_i^{T} 是矩阵的第 ii 行, bib_i 是向量 b\bf{b} 的第 ii 个元素,则上式32可以改写为:

minxi=1naiTxbi2xTx+1\min _x \sum_{i=1}^n \frac{\left|a_i^{\mathrm{T}} x-b_i\right|^2}{x^{\mathrm{T}} x+1}

在一维的情况下,也就是找到一个解 xx ,让直线 b=xab = xa 满足所有采样点(a,b)到直线的距离和最小,与上面的图对应。

2)物理解释

如果没有扰动矩阵 ΔA\Delta A,那么 AHAA^HA 一定不可逆,且有一个为0的特征值。加上噪声之后,我们可以认为原本为0的特征值变成了最小的那个特征值,而最小的特征值就是噪声的方差。于是先在 AHAA^HA 中减去方差 σn+12I\sigma_{n+1}^2I,再求最小二乘解。

xTLS =(AHAσn+12I)AHb\boldsymbol{x}_{\text {TLS }}=\left(\boldsymbol{A}^{\mathrm{H}} \boldsymbol{A}-\sigma_{n+1}^2 \boldsymbol{I}\right)^{\dagger} \boldsymbol{A}^{\mathrm{H}} \boldsymbol{b}

Q.E.D.


几时归去,做个闲人