博客 卡尔曼滤波

卡尔曼滤波

   数栈君   发表于 2023-06-06 11:14  242  0

卡尔曼滤波顾名思义是一种滤波方法,可以用于线性滤波和非线性滤波。卡尔曼滤波分为很多类,主要应用于线性滤波的是一般卡尔曼滤波,应用于非线性的有延申卡尔曼滤波(Extended Kalman Filter) 、无损卡尔曼滤波(Unscented Kalman Filter) 、以及粒子滤波器(Particle Kalman Filter)。

这篇主要说一说啥是一般卡尔曼滤波。

卡尔曼滤波的基本模型
基本假设
假设现在又线性的离散时间系统:
x k = F k − 1 x k − 1 + G k − 1 u k − 1 + w k − 1 y k = H k x k + v k (1) \tag{1}
xkyk=Fk−1xk−1+Gk−1uk−1+wk−1=Hkxk+vk
x
k
=
F
k

1
x
k

1
+
G
k

1
u
k

1
+
w
k

1
y
k
=
H
k
x
k
+
v
k

x
k


y
k




=F
k−1

x
k−1

+G
k−1

u
k−1

+w
k−1


=H
k

x
k

+v
k



(1)

系统固有的
对于这个系统描述方程,各个矩阵的描述如下:

F k − 1 F_{k-1} F
k−1

: 系统转化矩阵,将系统状态从时刻间 k − 1 k-1 k−1转化到时刻 k k k时的状态。

G k − 1 G_{k-1} G
k−1

:系统控制矩阵,转化外部施加的控制量 u k u_k u
k

到系统中。

H k H_k H
k

:测量转化矩阵,将系统状态量转化成可测量量,比如电路中某个原件承载电压值这个状态量,可以通过流经此原件的电流和原件的电阻值乘积得到, H k H_k H
k

的作用就是将某些状态量转化到可直接测量的测量空间去。

y k y_k y
k

:时刻 k k k时系统的测量值。

w k − 1 w_{k-1} w
k−1

: k − 1 k-1 k−1时刻系统的噪音,也是矩阵。

v k − 1 v_{k-1} v
k−1

: k − 1 k-1 k−1时刻对系统观测时产生的噪音干扰,和 w k − 1 w_{k-1} w
k−1

性质一样。

噪音
其中的 w k w_k w
k

和 v k v_k v
k

都是零均值、不相关的白噪音(即为一般的高斯白噪音),而且二者都有已知的协方差矩阵 Q k Q_k Q
k

和 R k R_k R
k

,其满足的分布分别为:
w k ∼ ( 0 , Q k ) v k ∼ ( 0 , R k ) E [ w k w j T ] = Q k δ k − ȷ E [ v k v j T ] = R k δ k − j E [ v k w ȷ T ] = 0 (2)
\begin{aligned}\tag{2} w_{k} & \sim\left(0, Q_{k}\right) \\ v_{k} & \sim\left(0, R_{k}\right) \\ E\left[w_{k} w_{j}^{T}\right] &=Q_{k} \delta_{k-\jmath} \\ E\left[v_{k} v_{j}^{T}\right] &=R_{k} \delta_{k-j} \\ E\left[v_{k} w_{\jmath}^{T}\right] &=0 \end{aligned}
\begin{aligned}\tag{2} w_{k} & \sim\left(0, Q_{k}\right) \\ v_{k} & \sim\left(0, R_{k}\right) \\ E\left[w_{k} w_{j}^{T}\right] &=Q_{k} \delta_{k-\jmath} \\ E\left[v_{k} v_{j}^{T}\right] &=R_{k} \delta_{k-j} \\ E\left[v_{k} w_{\jmath}^{T}\right] &=0 \end{aligned}
w
k


v
k


E[w
k

w
j
T

]
E[v
k

v
j
T

]
E[v
k

w
ȷ
T

]


∼(0,Q
k

)
∼(0,R
k

)
=Q
k

δ
k−ȷ


=R
k

δ
k−j


=0

(2)

“ ∼ ( a , b ) " “\sim(a,b)" “∼(a,b)" 符号表示的是 “服从均值为 a a a,方差为 b b b的高斯分布” , E [ w k w j T ] E\left[w_{k} w_{j}^{T}\right] E[w
k

w
j
T

] 表示的是括号内二者的联合期望, δ k − j \delta_{k-j} δ
k−j

则是Kronecker delta function的函数,其简明意义是k=j的时候 δ k − j \delta_{k-j} δ
k−j

= 1,反之则为 δ k − j \delta_{k-j} δ
k−j

= 0。

注:知识复习 C o v [ X , Y ] = E [ X Y ] − E [ X ] E [ Y ] Cov[X,Y] = E[XY] - E[X]E[Y] Cov[X,Y]=E[XY]−E[X]E[Y],对于均值为 0的高斯分布后两项为0
上式表明,对于噪音的协方差矩阵, w k w_k w
k

和 v k v_k v
k

都是对角矩阵,而二者也是独立的( E [ v k w j T ] = 0 E[v_{k} w_{j}^{T}]=0 E[v
k

w
j
T

]=0)。

Q k Q_{k} Q
k

表示系统状态受到的噪音扰动的协方差:

Q k = E ( w k w k T ) = [ σ 1 2 ⋯ 0 ⋮ ⋮ 0 ⋯ σ k 2 ] (3)
\begin{aligned}\tag{3} Q_k &=E\left(w_k w_k^{T}\right) \\ &=\left[\begin{array}{ccc} \sigma_{1}^{2} & \cdots & 0 \\ \vdots & & \vdots \\ 0 & \cdots & \sigma_{k}^{2} \end{array}\right] \end{aligned}
\begin{aligned}\tag{3} Q_k &=E\left(w_k w_k^{T}\right) \\ &=\left[\begin{array}{ccc} \sigma_{1}^{2} & \cdots & 0 \\ \vdots & & \vdots \\ 0 & \cdots & \sigma_{k}^{2} \end{array}\right] \end{aligned}
Q
k




=E(w
k

w
k
T

)
=





σ
1
2



0






0

σ
k
2










(3)

R k R_{k} R
k

代表测量误差的协方差:
R k = E ( v k v k T ) = [ σ 1 2 ⋯ 0 ⋮ ⋮ 0 ⋯ σ k 2 ] (4)
\begin{aligned}\tag{4} R_k &=E\left(v_k v_k^{T}\right) \\ &=\left[\begin{array}{ccc} \sigma_{1}^{2} & \cdots & 0 \\ \vdots & & \vdots \\ 0 & \cdots & \sigma_{k}^{2} \end{array}\right] \end{aligned}
\begin{aligned}\tag{4} R_k &=E\left(v_k v_k^{T}\right) \\ &=\left[\begin{array}{ccc} \sigma_{1}^{2} & \cdots & 0 \\ \vdots & & \vdots \\ 0 & \cdots & \sigma_{k}^{2} \end{array}\right] \end{aligned}
R
k




=E(v
k

v
k
T

)
=





σ
1
2



0






0

σ
k
2










(4)

制定一个小目标 – get next time state x k x_k x
k


对于式子 ( 1 ) (1) (1)来说,卡尔曼滤波的总体目标是估计状态量 x k x_k x
k

, 那么如何估计呢?这就要用到我们已知的系统动力学性质和对系统的测量量 y k y_k y
k

。这里变量的角标 k k k代表的是各个离散的时刻。如果我们现在知道所有 k k k时刻之前以及 k k k时刻的的测量量 y 1 , y 2 , y 3 . . . y k y_1,y_2,y_3 ...y_k y
1

,y
2

,y
3

...y
k

,那么我们就可以估计一个对现在时刻的状态的估计状态,称之为后验估计(posteriori estimate)(顾名思义,相当于知道后再估计、检验)。
x ^ k + = E [ x k ∣ y 1 , y 2 , ⋯   , y k ] = a posteriori estimate (5) \hat{x}_{k}^{+}=E\left[x_{k} \mid y_{1}, y_{2}, \cdots, y_{k}\right]=a\text { posteriori estimate } \tag{5}
x
^

k
+

=E[x
k

∣y
1

,y
2

,⋯,y
k

]=a posteriori estimate (5)

注意,这里的上角标** + + +号表示的是后验**,意思是估计所用的依赖信息包含时刻 k k k的测量值的出来的估计量。

同理,我们可以得到先验估计(priori estimate):
x ^ k − = E [ x k ∣ y 1 , y 2 , ⋯   , y k − 1 ] = a priori estimate (6) \hat{x}_{k}^{-}=E\left[x_{k} \mid y_{1}, y_{2}, \cdots, y_{k-1}\right]=a \text { priori estimate } \tag{6}
x
^

k


=E[x
k

∣y
1

,y
2

,⋯,y
k−1

]=a priori estimate (6)

以上两个估计都是在已经获得了测量结果的时刻 k k k以及之前时刻的估计,那么如果我们有了 k k k个时刻的样本,以及 k k k时刻之后的 N N N个样本,这时候我们对 k k k时刻的估计值则称之为平滑估计 (smoothed estimate) :
x ^ k ∣ k + N = E [ x k ∣ y 1 , y 2 , ⋯   , y k , ⋯   , y k + N ] = smoothed estimate (7) \hat{x}_{k \mid k+N}=E\left[x_{k} \mid y_{1}, y_{2}, \cdots, y_{k}, \cdots, y_{k+N}\right]=\text { smoothed estimate } \tag{7}
x
^

k∣k+N

=E[x
k

∣y
1

,y
2

,⋯,y
k

,⋯,y
k+N

]= smoothed estimate (7)

平滑估计之所以称之为smoothed,原因在于已经知道了想要估计时刻之后的 N N N个样本的测量值。

最后我们想要预测 k k k时刻的系统状态量,但是我们目前手上只有 k k k时刻之前 M M M步到初始时刻的测量量,那么这时候我们利用这些测量量做出的估计称之为预测估计(predicted estimate):
x ^ k ∣ k − M = E [ x k ∣ y 1 , y 2 , ⋯   , y k − M ] = predicted estimate (8) \hat{x}_{k \mid k-M}=E\left[x_{k} \mid y_{1}, y_{2}, \cdots, y_{k-M}\right]=\text { predicted estimate } \tag{8}
x
^

k∣k−M

=E[x
k

∣y
1

,y
2

,⋯,y
k−M

]= predicted estimate (8)

一张图帮你弄懂这些估计量代表的含义:


预测类型
上图表示,如果我们现在只有五个测量值拿在手里,那么对第一个时刻的估计值是smoothed estimate,对第五个时刻的估计值是posteriori estimate,对第六个时刻的估计值是 a priori estimate, 对第九个时刻的估计值是prediction。其实,a priori estimate 也是prediction,只不过由于和已知时刻的测量值的时刻挨得比较近。

卡尔曼滤波的基本原则从这里也可以略知一二,其大概总的原理,就是在 k k k时刻即将到来之前,我们基于 k k k时刻以前对系统的测量值,对系统的状态做出一个 k k k时刻的预测值,也就是 x ^ k − \hat{x}_{k}^{-}
x
^

k


,当 k k k时刻到来的时候,我们反手一掏,拿到了 k k k时刻的测量值,再结合之前时刻的测量值,这时候就得到了 k k k时刻的后验估计值 x ^ k + \hat{x}_{k}^{+}
x
^

k
+

,而实现循环预测的基本原则则是,我们利用前一时刻的后验估计值,“扔到”前一时刻的系统里,得出来后一时刻的先验。

简而言之,就是我们在下一时刻到来前,利用现在时刻我们所有拥有的信息,估计出来系统的后验值(不管先验后验,都是估计值哦,不是真实值),放到现在时刻的系统里面,经过神奇的运作,我们就得到了未经下一时刻测量值证实的一个对系统状态的猜测和估计,这个估计就是下一时刻系统状态的先验(理论上讲,系统下一时刻的实际值,应该是这一时刻的实际值放在下一时刻的系统中,才能得到下一时刻的实际值,对于估计而言,我们利用这种方法对下一时刻系统进行估计)。

来个示意图:



时刻转化
用方程表示则为:
x ^ k − = F k − 1 x ^ k − 1 + + G k − 1 u k − 1 (9) \hat{x}_{k}^{-}=F_{k-1} \hat{x}_{k-1}^{+}+G_{k-1} u_{k-1} \tag{9}
x
^

k


=F
k−1


x
^

k−1
+

+G
k−1

u
k−1

(9)

上式称之为更新公式,非常形象,通过系统对预测状态更新,有那味儿了,但是初始状态是怎么样的呢?往前推:
x ^ 1 − = F 0 x ^ 0 + + G 0 u 0 (10) \hat{x}_{1}^{-}=F_{0} \hat{x}_{0}^{+}+G_{0} u_{0}\tag{10}
x
^

1


=F
0


x
^

0
+

+G
0

u
0

(10)

可以看出来,我们必须要拥有一个初始的后验值,这个后验值我们直接用初始时刻的测量值 x ^ 0 + = E ( x 0 ) \hat{x}_{0}^{+} = E(x_0)
x
^

0
+

=E(x
0

) 。

评价小目标的达成度 P k P_k P
k


说了这么多,我们到此得到了我们的目标,即 k k k时刻的系统状态估计值。但是到目前为止,我们并不知道我们对系统各个时刻的估计是否正确,或者说有多大的置信度 ,于是我们引入一个专门估计各个时刻估计置信度的变量 P P P ,即系统估计值错误的方差 。
P k − = E [ ( x k − x ^ k − ) ( x k − x ^ k − ) T ] P k + = E [ ( x k − x ^ k + ) ( x k − x ^ k + ) T ] (11)
P−k=E[(xk−x̂−k)(xk−x̂−k)T]P+k=E[(xk−x̂+k)(xk−x̂+k)T](11)
(11)
P
k

=E
[
x
k

x
^
k

(
x
k

x
^
k

)
T
]
P
k
+
=E
[
x
k

x
^
k
+
(
x
k

x
^
k
+
)
T
]

P
k

=E[(x
k


x
^

k


)
k


x
^

k



T
]
P
k
+
=E[(x
k


x
^

k
+

)
k


x
^

k
+


T
]

(11)

对于零时刻:
P 0 + = E [ ( x 0 − x ˉ 0 ) ( x 0 − x ˉ 0 ) T ] = E [ ( x 0 − x ^ 0 + ) ( x 0 − x ^ 0 + ) T ] (12)
\begin{aligned}\tag{12} P_{0}^{+} &=E\left[\left(x_{0}-\bar{x}_{0}\right)\left(x_{0}-\bar{x}_{0}\right)^{T}\right] \\\\ &=E\left[\left(x_{0}-\hat{x}_{0}^{+}\right)\left(x_{0}-\hat{x}_{0}^{+}\right)^{T}\right] \end{aligned}
\begin{aligned}\tag{12} P_{0}^{+} &=E\left[\left(x_{0}-\bar{x}_{0}\right)\left(x_{0}-\bar{x}_{0}\right)^{T}\right] \\\\ &=E\left[\left(x_{0}-\hat{x}_{0}^{+}\right)\left(x_{0}-\hat{x}_{0}^{+}\right)^{T}\right] \end{aligned}
P
0
+



=E[(x
0


x
ˉ

0

)(
0


x
ˉ

0

)
T
]
=E[(x
0


x
^

0
+

)
0


x
^

0
+


T
]

(12)

其中 x ˉ 0 \bar{x}_0
x
ˉ

0

表示的时零时刻系统状态的均值,表示为:
x ˉ k = E ( x k ) = F k − 1 x ˉ k − 1 + G k − 1 u k − 1 (13)
\begin{aligned}\tag{13} \bar{x}_{k} &=E\left(x_{k}\right) \\ &=F_{k-1} \bar{x}_{k-1}+G_{k-1} u_{k-1} \end{aligned}
\begin{aligned}\tag{13} \bar{x}_{k} &=E\left(x_{k}\right) \\ &=F_{k-1} \bar{x}_{k-1}+G_{k-1} u_{k-1} \end{aligned}
x
ˉ

k



=E(x
k

)
=F
k−1

x
ˉ

k−1
+G
k−1
u
k−1


(13)

然后结合公式 10 10 10 对状态值的递推估计,我们可以直接利用其思想得到状态值方差的递推式:

P k − = F k − 1 P k − 1 + F k − 1 T + Q k − 1 (14) P_{k}^{-}=F_{k-1} P_{k-1}^{+} F_{k-1}^{T}+Q_{k-1}\tag{14}
P
k


=F
k−1

P
k−1
+

F
k−1
T

+Q
k−1

(14)

但其实公式 14 14 14来源于状态值和状态方差的扩散,即:
P k = F k − 1 P k − 1 F k − 1 T + Q k − 1 (15) P_k = F_{k-1} P_{k-1} F_{k-1}^{T}+Q_{k-1}\tag{15}
P
k

=F
k−1

P
k−1

F
k−1
T

+Q
k−1

(15)

而公式 15 15 15来源于状态递推:
x ˉ k = E ( x k ) = F k − 1 x ˉ k − 1 + G k − 1 u k − 1 (16)
\begin{aligned}\tag{16} \bar{x}_{k} &=E\left(x_{k}\right) \\ &=F_{k-1} \bar{x}_{k-1}+G_{k-1} u_{k-1} \end{aligned}
\begin{aligned}\tag{16} \bar{x}_{k} &=E\left(x_{k}\right) \\ &=F_{k-1} \bar{x}_{k-1}+G_{k-1} u_{k-1} \end{aligned}
x
ˉ

k



=E(x
k

)
=F
k−1

x
ˉ

k−1
+G
k−1
u
k−1


(16)

然后我们结合公式 1 1 1和公式 14 14 14可以得到中间的一个公式:
( x k − x ˉ k ) ( ⋯   ) T = ( F k − 1 x k − 1 + G k − 1 u k − 1 + w k − 1 − x ˉ k ) ( ⋯   ) T = [ F k − 1 ( x k − 1 − x ˉ k − 1 ) + w k − 1 ] [ ⋯   ] T = F k − 1 ( x k − 1 − x ˉ k − 1 ) ( x k − 1 − x ˉ k − 1 ) T F k − 1 T + w k − 1 w k − 1 T + F k − 1 ( x k − 1 − x ˉ k − 1 ) w k − 1 T + w k − 1 ( x k − 1 − x ˉ k − 1 ) T F k − 1 T (17)
\begin{aligned}\tag{17} \left(x_{k}-\bar{x}_{k}\right)(\cdots)^{T} &=\left(F_{k-1} x_{k-1}+G_{k-1} u_{k-1}+w_{k-1}-\bar{x}_{k}\right)(\cdots)^{T} \\\\ &=\left[F_{k-1}\left(x_{k-1}-\bar{x}_{k-1}\right)+w_{k-1}\right][\cdots]^{T} \\\\ &=F_{k-1}\left(x_{k-1}-\bar{x}_{k-1}\right)\left(x_{k-1}-\bar{x}_{k-1}\right)^{T} F_{k-1}^{T} \\\\ &+ w_{k-1}w_{k-1}^{T} + F_{k-1}(x_{k-1}-\bar{x}_{k-1})w_{k-1}^{T} \\\\ &+ w_{k-1}\left(x_{k-1}-\bar{x}_{k-1}\right)^{T} F_{k-1}^{T} \end{aligned}
\begin{aligned}\tag{17} \left(x_{k}-\bar{x}_{k}\right)(\cdots)^{T} &=\left(F_{k-1} x_{k-1}+G_{k-1} u_{k-1}+w_{k-1}-\bar{x}_{k}\right)(\cdots)^{T} \\\\ &=\left[F_{k-1}\left(x_{k-1}-\bar{x}_{k-1}\right)+w_{k-1}\right][\cdots]^{T} \\\\ &=F_{k-1}\left(x_{k-1}-\bar{x}_{k-1}\right)\left(x_{k-1}-\bar{x}_{k-1}\right)^{T} F_{k-1}^{T} \\\\ &+ w_{k-1}w_{k-1}^{T} + F_{k-1}(x_{k-1}-\bar{x}_{k-1})w_{k-1}^{T} \\\\ &+ w_{k-1}\left(x_{k-1}-\bar{x}_{k-1}\right)^{T} F_{k-1}^{T} \end{aligned}
(x
k


x
ˉ

k

)(⋯)
T



=(F
k−1

x
k−1

+G
k−1

u
k−1

+w
k−1


x
ˉ

k

)(⋯)
T

=[F
k−1

(x
k−1


x
ˉ

k−1

)+w
k−1

][⋯]
T

=F
k−1
(x
k−1


x
ˉ

k−1

)(x
k−1


x
ˉ

k−1

)
T
F
k−1
T

+w
k−1
w
k−1
T
+F
k−1
(x
k−1

x
ˉ

k−1
)w
k−1
T

+w
k−1
(x
k−1


x
ˉ

k−1

)
T
F
k−1
T


(17)

最终我们可以得到公式 P k P_k P
k

:
P k = E [ ( x k − x ˉ k ) ( ⋯   ) T ] = F k − 1 P k − 1 F k − 1 T + Q k − 1 (18)
\begin{aligned}\tag{18} P_{k} &=E\left[\left(x_{k}-\bar{x}_{k}\right)(\cdots)^{T}\right] \\ &=F_{k-1} P_{k-1} F_{k-1}^{T}+Q_{k-1} \end{aligned}
\begin{aligned}\tag{18} P_{k} &=E\left[\left(x_{k}-\bar{x}_{k}\right)(\cdots)^{T}\right] \\ &=F_{k-1} P_{k-1} F_{k-1}^{T}+Q_{k-1} \end{aligned}
P
k



=E[(x
k


x
ˉ

k

)(⋯)
T
]
=F
k−1
P
k−1
F
k−1
T
+Q
k−1


(18)

经过上述一系列推导,我们可以知道的是,当 P k P_k P
k

越小的时候,不管是 P k + P_{k}^+ P
k
+

还是 P k − P_{k}^- P
k


,都表明估计值的不确定性越小,也就是说其估计错误越小,估计值越准确。

估计增益矩阵 K k K_k K
k

– the Estimator Gain Matrix
接下来是卡尔曼滤波的重头戏了,估计增益矩阵 ,正是这个参数,将时刻间的估计值和测量值联系起来。

首先对于线性系统言, K k K_k K
k

可以表示对测量值和估计值的信任系数。

让我们去掉上下脚标来看状态系统更新。
y k = H k x + v k (19) \tag{19}
yk=Hkx+vk
y
k
=
H
k
x+
v
k

y
k



=H
k
x+v
k


(19)

x ^ k = x ^ k − 1 + K k ( y k − H k x ^ k − 1 ) (20) \tag{20} \hat{x}_{k} =\hat{x}_{k-1}+K_{k}\left(y_{k}-H_{k} \hat{x}_{k-1}\right)
x
^

k

=
x
^

k−1

+K
k

(y
k

−H
k


x
^

k−1

)(20)

公式 20 20 20表明 k k k 时刻的状态估计值由 k − 1 k-1 k−1时刻的状态估计值加上与实际状态测量值的差值然后乘以一个系数得到的,这个系数就是时刻 k k k的估计增益矩阵,也称为卡尔曼增益。

对于带角标的系统更新方程:
x ^ k + = x ^ k − + K k ( y k − H k x ^ k − ) (21) \tag{21} \hat{x}_{k}^{+}=\hat{x}_{k}^{-}+K_{k}\left(y_{k}-H_{k} \hat{x}_{k}^{-}\right)
x
^

k
+

=
x
^

k


+K
k

(y
k

−H
k


x
^

k


)(21)

再来一个图表示:



卡尔曼增益(图中z即为y)
卡尔曼增益的推导比较繁琐,这里不再仔细推导,但是其最终形式有很多种体现,其中比较经常使用的有:
K k = P k − H k T ( H k P k − H k T + R k ) − 1 (22) \tag{22} K_{k}=P_{k}^{-} H_{k}^{T}\left(H_{k} P_{k}^{-} H_{k}^{T}+R_{k}\right)^{-1} \\
K
k

=P
k


H
k
T

(H
k

P
k


H
k
T

+R
k

)
−1

(22)

K k = P k + H k T R k − 1 (23) \tag{23} K_{k}=P_{k}^{+} H_{k}^{T} R_{k}^{-1}
K
k

=P
k
+

H
k
T

R
k
−1

(23)

公式 22 22 22 相比于公式 23 23 23而言,只需要先验估计,但是却需要求加和矩阵的逆,而矩阵的逆并不一定存在。

离散卡尔曼滤波算法
最后让我们总结一下卡尔曼滤波算法

第一步,系统模型为:
x k = F k − 1 x k − 1 + G k − 1 u k − 1 + w k − 1 y k = H k x k + v k E ( w k w j T ) = Q k δ k − ȷ E ( v k v j T ) = R k δ k − ȷ E ( w k v ȷ T ) = 0 (24) \tag{24}
xkykE(wkwTj)E(vkvTj)E(wkvTȷ)=Fk−1xk−1+Gk−1uk−1+wk−1=Hkxk+vk=Qkδk−ȷ=Rkδk−ȷ=0
x
k
=
F
k

1
x
k

1
+
G
k

1
u
k

1
+
w
k

1
y
k
=
H
k
x
k
+
v
k
E
(
w
k
w
j
T
)
=
Q
k
δ
k

ȷ
E
(
v
k
v
j
T
)
=
R
k
δ
k

ȷ
E
(
w
k
v
ȷ
T
)
=0
x
k

y
k

E(w
k

w
j
T

)
E(v
k

v
j
T

)
E(w
k

v
ȷ
T

)


=F
k−1
x
k−1
+G
k−1
u
k−1
+w
k−1

=H
k
x
k
+v
k

=Q
k
δ
k−ȷ

=R
k
δ
k−ȷ

=0

(24)

第二步,初始化滤波模型初始状态:
x ^ 0 + = E ( x 0 ) P 0 + = E [ ( x 0 − x ^ 0 + ) ( x 0 − x ^ 0 + ) T ] (25) \tag{25}
x̂+0P+0=E(x0)=E[(x0−x̂+0)(x0−x̂+0)T]
x
^
0
+
=E
(
x
0
)
P
0
+
=E
[
(
x

x
^
)
(
0

x
^
0
+
)
T
]

x
^

0
+

P
0
+



=E(x
0

)
=E[(x
0


x
^

0
+

)
0


x
^

0
+


T
]

()

第三步,递推:
P k − = F k − 1 P k − 1 + F k − 1 T + Q k − 1 K k = P k − H k T ( H k P k − H k T + R k ) − 1 = P k + H k T R k − 1 x ^ k − = F k − 1 x ^ k − 1 + + G k − 1 u k − 1 = a priori state estimate x ^ k + = x ^ k − + K k ( y k − H k x ^ k − ) = a posteriori state estimate P k + = ( I − K k H k ) P k − ( I − K k H k ) T + K k R k K k T = [ ( P k − ) − 1 + H k T R k − 1 H k ] − 1 = ( I − K k H k ) P k − (26) \tag{26}
P−kKkx̂−kx̂+kP+k=Fk−1P+k−1FTk−1+Qk−1=P−kHTk(HkP−kHTk+Rk)−1=P+kHTkR−1k=Fk−1x̂+k−1+Gk−1uk−1= a priori state estimate =x̂−k+Kk(yk−Hkx̂−k)=a posteriori state estimate =(I−KkHk)P−k(I−KkHk)T+KkRkKTk=[(P−k)−1+HTkR−1kHk]−1=(I−KkHk)P−k
P
k

=
F
k

1
P
k

1
+
F
k

1
T
+
Q
k

1
K
k
=
P
k

H
k
T
(
H
k
P
k

H
k
T
+
R
k
)

1
=
P
k
+
H
k
T
R
k

1
x
^
k

=
F
k

1
x
^
k

1
+
+
G
k

1
u
k

1
= a priori state estimate
x
^
k
+
=
x
^
k

+
K
k
(
y
k

H
k
x
^
k

)
=a posteriori state estimate
P
k
+
=
(
I

K
k
H
k
)
P
k

(
I

K
k
H
k
)
T
+
K
k
R
k
K
k
T
=
[
(
k

)

1
+
H
k
T
R
k

1
H
k
]

1
=
(
I

K
k
H
k
)
P
k


P
k


K
k

x
^

k


x
^

k
+

P
k
+



=F
k−1
P
k−1
+
F
k−1
T
+Q
k−1

=P
k

H
k
T
(H
k

P
k


H
k
T

+R
k

)
−1

=P
k
+
H
k
T
R
k
−1

=F
k−1

x
^

k−1
+
+G
k−1
u
k−1
= a priori state estimate
=
x
^

k

+K
k
(y
k

−H
k


x
^

k


)=a posteriori state estimate
=(I−K
k

H
k

)P
k

(I−K
k

H
k

)
T
+K
k
R
k
K
k
T

=[(P
k


)
−1
+H
k
T

R
k
−1

H
k

]
−1

=(I−K
k

H
k

)P
k



()

  • 免责申明:

    本文系转载,版权归原作者所有,如若侵权请联系我们进行删除!

  • 《数据治理行业实践白皮书》下载地址:https://fs80.cn/4w2atu


  • 《数栈V6.0产品白皮书》下载地址:https://fs80.cn/cw0iw1

  • 想了解或咨询更多有关袋鼠云大数据产品、行业解决方案、客户案例的朋友,浏览袋鼠云官网:https://www.dtstack.com/?src=bbs

    同时,欢迎对大数据开源项目有兴趣的同学加入「袋鼠云开源框架钉钉技术群」,交流最新开源技术信息,群号码:30537511,项目地址:
    https://github.com/DTStack

0条评论
社区公告
  • 大数据领域最专业的产品&技术交流社区,专注于探讨与分享大数据领域有趣又火热的信息,专业又专注的数据人园地

最新活动更多
微信扫码获取数字化转型资料
钉钉扫码加入技术交流群