全部版块 我的主页
论坛 经济学人 二区 外文文献专区
2022-5-6 07:36:00
现在注意以下几点:o(Xt,Ys)对于任何s都是联合高斯分布的≤ t、 obXtis Gaussian和{Ys}s的线性函数≤t、 o因此,(Xt,bXt,Ys)对于任何s都是联合高斯的≤ to尤其如此(t、 Ys)对于任何s都是联合高斯且不相关的≤ t、 所以,它独立于FYt(更多详细讨论见[5,36]),因此滤波器为高斯滤波器。如果我们将定理5.2.1中的滤波器应用于g(x)=x,则得出ft=γE[t | FYt]=γEt、 以及第一次过滤力矩Dbxt=abXtdt+h·E演变的SDEtγdνt.(5.4)我们还可以应用It^o引理,然后取期望值,这将导致滤波器协方差演化的Riccative方程[t] =2aE[t] dt+σdt+E[ft]dt=2aE[t] dt+σdt-h·E[t] γdt(5.5),其中我们使用了dνt·dBt=0,E[ft]=γE这一事实E[t] E[[t]=γE[t] 。方程(5.4)和(5.5)是卡尔曼滤波器。第6章逼近非线性滤波器的数值方法在实践中,只能对完全离散的模型或应用卡尔曼滤波器的离散时间线性高斯模型计算精确滤波器。在其他情况下,近似方案的一致性可能相对较小,而在其他情况下,则需要进行大量分析。在本课程中,我们将介绍Kushner[33]关于逼近滤波器一致性的一般理论,以及Dupuis和Kushner[21]的马尔可夫链逼近方法。但首先,我们给出了以下关于滤波近似的简单结果:例6.0.1。设Xt为不可观测的马尔可夫过程,观测过程由SDEdYt=h(t,Xt)dt+γdwt给出,其中Wt为独立的维纳过程,γ>0。对于区间[0,t]的任意分为N个点,设FNt=σ{Ytn:N≤ N} ,并用FYt=σ{Ys:s表示连续观测产生的过滤≤ t} 。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:36:03
假设是fnt FN+1t . . . ···  FYt,那么从YT的连续性我们知道∞N=1FNt=FYt。然后,根据L’evy的0-1定律,我们知道条件期望收敛,limNE[g(Xt)|FNt]=E“g(Xt)∞_N=1FNt#=E[g(Xt)|FYt]。对于任意可积函数g(x)。这清楚地表明,具有离散观测的滤波器可以是具有连续观测的滤波器的一致估计。然而,使用离散观测值计算滤波器可能仍然需要一些近似值。6.1非线性滤波器的逼近定理在本节中,我们给出了一个定理的证明,该定理本质上是这样的:边界函数的滤波期望可以通过从隐藏状态弱收敛到真实状态的模型中导出的滤波器来逼近。该定理是在连续时间过程和连续观测的背景下提出的,但可以在其他情况下重新应用,且变化相对较小。对一些人来说∞ 还有什么t∈ [0,T],设Xt是一个不可观测的马尔可夫过程,其生成元Q为域B(Q),且设Bb(Q)表示有界函数inB(Q)的子集。对于任何函数g∈ Bb(Q),我们有以下极限[g(Xt+t) |Xt=x]- g(x)T→ Qg(x)ast&0。观察到的过程由SDEdYt=h(Xt)dt+γdWt(6.1)给出,其中wt是一个独立的维纳过程,γ>0,h是一个有界函数。任何时候都可以∈ [0,T],设FYt=σ{Ys:s≤ t} 。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:36:06
从我们对Zakai方程的研究中,我们知道我们可以写出过滤期望asE[g(Xt)|FYt]=E[g(~Xt)~Mt | FYt]E[~Mt | FYt](6.2),其中| X的路径与X的路径具有相同的规律,但与(X,Y)无关,并且Mt是似然比| Mt exp.=γZth(~Xs)dYs-2γZth(~Xs)ds.Zakai方程可以为我们提供过滤期望的SDE,但计算Zakai方程的直接数值求积方法可能难以证明其合理性。6.1.1弱收敛为了逼近非线性滤波器,我们将用一系列弱收敛于X的过程{Xn}来逼近X。设{Pn}是度量空间D上的一系列测度。定义6.1.1。弱收敛。Pnis弱收敛于P-ifZf(x)dPn(x)→Zf(x)dP(x)as n→ ∞对于任意有界连续函数f:D→ R.对于诱导过程{Xn}n,通过写入Xn,wedenote弱收敛=> 十、定义6.1.2。紧密性。我们说,如果可能的话,这一系列措施都很严格 > 0存在一个紧集K D.这样的结果n(K)) ≥ 1.- .如果是这样,我们也可以说诱导过程{Xn}是紧密的。关于紧密性的一个重要结果是普罗霍罗夫定理:定理6.1.1。普罗霍罗夫。如果D是一个完备的可分度量空间,那么D上所有概率测度空间中包含的{Pn}族在弱收敛拓扑中是相对紧的,如果它是紧的。在我们的研究中,我们将考虑具有左手极限的右连续过程X(c\'adl\'ag)。设D[0,T]表示从[0,T]到R的c\'adl\'ag函数的空间,配备了Skorohod拓扑。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:36:09
如果一系列概率测度{Pn}是紧的,那么通过证明诱导过程{Xn}的定律收敛于相关鞅问题的解的定律,可以证明Pn对X上测度的弱收敛性g(Xnt)- g(Xns)-ZtsQg(Xnτ)dτ财政司司长→ 概率为0的n→ ∞ 对于任何g(x)∈ Bb(Q),对于任何≤ t、 可以证明这个鞅问题的解的规律是唯一的。给定一个测度{Pn}n族,一个非常有用的工具是Skorohod表示定理,该定理如下所示:定理6.1.2。斯科罗霍德代表。设{Pn}nbe为完备可分度量空间上的测度族。如果pnp弱收敛于P,则存在概率空间(~Ohm,随机变量为X和X,其中oP(Xn∈ A) =Pn(A)对于所有n和任何集合A D[0,T],o~P(X)∈ A) =P(A)对于任何集合A D[0,T],o和Xn→~X ~P-a.s.作为n→ ∞.特别是,如果Xn→~X∈ C[0,T]a.s.在Skorohod拓扑中,收敛性在T中保持一致。关于弱收敛、Skorohod拓扑、鞅问题和Skorohod表示的详细处理,请参见Ethier和Kurtz[23]的书以及Yin和Zhang[47]的书。6.1.2一致性定理{Xn}n是与(X,Y)相同概率空间上的一组随机变量,当弱收敛于X时,设~xndnote一个独立于(X,Y)的xn的副本,将近似似然表示为~Mnt,~Mnt经验γZth(~Xns)dYs-2γZth(~Xns)ds并确定近似过滤期望值[g(Xt)]=E[g(~Xnt)~Mnt | FYt]E[~Mnt | FYt]T∈ [0,T](6.3)对于任何函数g(x)∈ Bb(Q)∩ C(S)。然后我们有以下定理:定理6.1.3。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:36:13
给定一个进程{Xn}族,它取D[0,T]中的值,在Skorohod拓扑中弱收敛到X∈ C[0,T],则(6.3)中的近似滤波器将一致收敛≤TEnt[g(Xt)]- E[g(Xt)|FYt]→ 0代表Xt∈ C[0,T]的概率和平均值为n→ ∞, 对于任意函数g(x)∈ Bb(Q)∩ C(S)。证据(摘自[33])为了证明这一点,我们可以忽略hterms INM和Mnt。设ζ和ζ是独立于W的有界过程,并考虑以下估计,V=E supt≤T经验ZtζsdWs- 经验ZtζsdWs. (6.4)我们将使用适用于实数a和b的下列不等式,|ea- eb|≤ |A.- b |(ea+eb)。(6.5)对于任何实值次鞅Nt,我们有以下不等式(见[30]),E supt≤TNt≤ 4ENT。(6.6)不等式(6.5)和适用于(6.4)收益率的Schwarz不等式,V≤ E监督≤TZt(ζs)- ζs)dWs*E监督≤T经验ZtζsdWs+ 经验ZtζsdWs(6.7)除以(6.6)((6.7)中的第一项以4ERT |ζs为界- ζs|ds。为了限定第二个术语,我们使用以下事实:ZtζisdWs= E经验Zt |ζ为| ds对于i=1,2along和(6.6)以及expnRtζ是有界次鞅这一事实。利用这些事实,我们可以找到一个常数C,它依赖于T,ζ和ζ,比如v≤ C·EZT|ζs- ζs|ds。(6.8)证明定理是证明这一点的必要条件≤TE[g(~Xnt)~Mnt |FYt]- E[g(~Xt)~Mt | FYt]→ 0的概率为n%∞. 从h和T的有界性可知≤T(Mnt)+E-supt≤T(Mt)<∞. (6.9)设X是独立于(X,Y)的X的副本。根据斯科罗霍德表示定理,我们可以假设W.L.O.G.{Xn}定义在与(~X,X,Y)相同的概率空间上,每个~~Xn独立于(X,Y),并且Xn→ 实际上,因为我们假设Xn在Skorohod拓扑上收敛到一个连续函数,我们知道收敛是一致的,对吗≤T|Xnt-~Xt|→ 0,a.s.作为n→ ∞.
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:36:17
特别是supt≤T | g(~Xnt)- g(~Xt)|Mnt→ 0 a.s.考虑到预期,我们有支持≤TE[g(~Xnt)~Mnt |FYt]- E[g(~Xt)~Mt | FYt]≤ E监督≤|g(|Xnt)- g(~Xt)|·| MntFYti+kgk∞E监督≤|Mnt-~Mt|费蒂≤ E“E”supt≤T|g(~Xnt)- g(~Xt)|·| MntFYt##+kgk∞E“E”supt≤T | Mnt-~Mt|FYt##≤ E“supt≤T|g(~Xnt)- g(~Xt)|·| Mnt#+ Ckgk∞EZTh(~Xns)- h(Xs)ds. (6.10)(6.10)中的第一项归零为n→ ∞ 在应用(6.9)中的界之后,然后调用支配收敛。(6.10)中的第二项由于(6.8)中的界而变为零。因此,近似滤波器在平均值和概率上都收敛。推论1。将定理6.1.3推广到任意X∈ D[0,T]使得Xn=> 十、 我们需要重做证明的结尾,以证明极限在点上成立,Ent[g(Xt)]- E[g(Xt)|FYt]→ 0代表Xt∈ D[0,T]的概率和平均值为n→ ∞, 几乎所有的地方都是这样∈ [0,T],对于任何函数g(x)∈ Bb(Q)∩ C(S).6.2马尔可夫链近似定理6.1.3直接适用于观测数据随时可用的情况。此外,连续的观测使我们在选择近似方案时具有一定的灵活性。6.2.1连续时间马尔可夫链的滤波器近似值应为有限状态马尔可夫链。考虑一个时间步长t=n.对于n fite,take=0,1,2,3,4,T/T-1表示马尔可夫链ξnk和转移概率p(ξnk+1=i |ξnk=j)=heQ*对于任何i,j∈ {1,…,m}。马尔可夫链xNK是离散的,但可以通过取Xnt=Pkξnkt来扩展到[0,T]∈[tk,tk+1),但这不是一个连续时间的马尔可夫链。XnT的非马尔可夫结构并不妨碍我们应用定理6.1.3,但如果我们能找到马尔可夫近似,则证明鞅问题的紧性和收敛性将更容易。设k=1,2,3,4。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:36:20
,拿着νk~ iid exp(1),并设置τk=τk-1+νkτ=0的t。现在让ξnk成为我们已经定义的离散马尔可夫链,但现在考虑k直到τk+1≥ TXtis的连续时间近似,然后xnt=Xk:τk<Tt∈[τk,τk+1)ξnk.为了证明{Xn}在D[0,T]中是紧的,我们如下进行:取任意f∈ D[0,T]对于任何i=01,2,3,4。让Ji表示第i次跳跃的时间,Ji+1(f)=inf{t>Ji(f):fnt6=fnJi}∧ T、 J(f)=0。f将军∈ D[0,T]这些Ji可能非常小,但它们将为近似连续时间马尔可夫链的过程提供信息。接下来,对于任何δ>0的情况,确定setAδ=F∈ {1,…,m}s.t.|fJi+1- fJi|≥ δ 冀+1≤ T.我们可以很容易地检查这一点∈ 交流δ)≤ 1.- eδmaxjQjj≤ -δmaxjQjj 1对于任何足够小的δ。此外,对于任何序列{fn}n Aδ我们可以找到一个子序列,使得对于任何一个i,我们都有ji(fn`)→ 钛∈ [iδ,T]和fn`Ji(fn`)→ 人工智能∈ {1,…,m}as`→ ∞. 因此,fn的→ 艾夫斯∈ [Ti,Ti+1),这表明存在逐点收敛的子序列。因此,由于D[0,T]配备了逐点度量,因此,Aδ是紧致的。现在,如果我们看鞅问题,我们有eg(Xnt)=Xk:kT≤tEg(Xtk)+Eg(\'X)=Xk:kT≤tEQg(Xtk)t+Eg(X)+O(t) 收敛到鞅问题t&0。因此,Xn=> X弱inD[0,T]。那么对于任何s,t∈ [0,T]当s<T时,任意路径的似然比变化由mns给出,T=exp(γXk:s<τk)≤th(Xn(τk)-1.∨s) )(Yτk- Y(τk)-1.∨s) )-2γXk:s<τk≤th(Xτk)-1.∨s) (τk)- (τk)-1.∨ s) ))。在时间t,让近似滤波质量函数表示为ωt=(ωt。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:36:23
,ωmt)。给定ωswe,过滤质量的递推公式如下:ωit=PjEhXt=iMns,tFYt∨ {Xs=j}iωjsPjEhMns,tFYt∨ {Xs=j}iωjs。6.2.2 SDEsLet系统的滤波器近似滤波问题如下:dxt=a(Xt)dt+σ(x)dBtdYt=h(Xt)dt+γdWtwith h有界,γ>0,和Wt⊥ Bt.如果σ(x)≥n | a(x)|代表所有x∈ R、 我们可以用一个马尔可夫链来逼近x,它在D[0,T]中表示路径,在Sn={0,±n,±n,…}中取值,定义如下:tn(x)=nσ(x),并且给定Xnt=x时间t+的条件概率分布tn(x)由p给出Xnt+tn(x)=x±nXnt=x=σ(x)±n | a(x)| 2σ(x)。通过使用指数到达,我们可以从离散时间马尔可夫链构造连续时间马尔可夫链,就像我们在有限状态马尔可夫链中所做的那样。接下来的过程是如下不同的,\'Xnt=X+Zta(\'Xns)ds+Ztσ(\'Xns)dωs+其中ω是一个独立的维纳过程,且n(t)是这样的半鞅≤T(n(t))→ 0as n→ ∞, 根据Ethier和Kurtz[23]第27页的定理2.7b,{Xn}对所有T<∞. 这个过程是[0,T]上X的局部一致逼近。6.2.3离散时间观测对于一般离散观测模型,定理6.1.3适用于所有{tn}n [0,T]的每个时间点都是一个观察时间。为了简单起见,假设Ytis未被观察到∈ (0,1)并且在t=0和t=1,Y=Y+Zh(Xs)ds+W时,只有观测值可用。并且假设Xt是有限状态空间上的马尔可夫链。我们递归地将滤波质量写成π(x)=P(x=x | Y,Y)=cXv∈SEhP(Y | Y,{Xs}s≤1)FY∨ {X=X,~X=v}ieQ*(x | v)π(v)式中,c是一个归一化常数,FY=σ{Y,Y},过程x是x的一个副本,它独立于(x,Y),等式*t(·|·)是X的转移核,似然函数isP(Y | Y,{xs}s)≤1) =exp-Y- Y-Rh(xs)dsγ!对于任何路径{xs}s≤1.
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:36:26
我们用离散时间马尔可夫链Xnsuch thatP(Xnk+1=X | Xnk=X)=eQ来近似X*/n(x | x)在这种情况下,定理6.1.3在t=1时适用,因为xkh(Xnk)=>Zh(Xs)dsas n→ ∞.理论上,近似滤波器将收敛,但仍存在计算问题,因为随着n变小,我们需要设计一种方法来计算预期的可能性经验-Y- Y-nPn-1k=0h(~Xnk)γ!FY∨ {Xnn=x,~Xn=v}其中xn是独立于(X,Y)的xn的副本。也可以使用蒙特卡罗方法,但对xnn的期望条件可能会减慢收敛速度。第7章线性滤波一般线性模型中的滤波可能是滤波中应用最广泛的分支,但在线性环境中,“滤波”一词指的是与概率模型和方程基本不同的东西,这些概率模型和方程构成了数学家所说的“滤波理论”这些方法不是贝叶斯方法,概率的影响有时是最小的,但滤波理论中一些最重要的思想,例如创新的使用,可以追溯到它们在信号处理和“线性”滤波中的实用根源。7.1一般线性滤波器让整数n∈ {0,2,…,N- 1} 表示时间索引。提出滤波问题的最简单方法是将给定测量值识别为信号加噪声,Yn=Xn+wn,其中W是具有正协方差R的噪声分量,R`=EWn±\'wn表示某些整数值滞后\'。噪声可以被认为是特殊的,本质上意味着它与X正交,EXn+`Wn=0,在任何时间n和任何滞后时间。对于任何线性滤波器H:RN→ RM,脉冲响应是与测量值(H)的卷积* Y)k=(H)*十) k+(H)* W)k其中卷积是移位k(H)的函数* Y)k=M-1Xn=0XnHn-k、 如果k=0,卷积可以看作内积。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:36:29
对于滤波器H,信噪比(SNR)定义为信号响应与噪声响应之比SNRH=kH* XkEkH* W k.线性滤波的目标是用Y,bX的投影来估计XH* Y、 或者至少提高信噪比,使我们处于更适合进行估计的位置。如果我们选择了信噪比最大的H,我们可以认为这样的估计是“最优的”。如果Bx是无偏估计器,那么最优估计器的SNR将大于原始测量的SNR,SNRY=kXkEkW k<kXkEkbXn- Xnk.=SNRBX显然,主要的障碍在于找到最佳线性滤波器。显然,如果对于所有m,n,如果exnwm=0,那么将H作为已知与X有非零内积但也已知与W正交的函数是有意义的。可能很难找到(更不用说反转)这样的滤波器。更重要的是,我们应该注意到,最大化SN RbXis与最小化均方误差(MSE)相同,MSE(bX)=EkX-bXk≈NXn | Xn-bXn |.7.1.1簧片/匹配滤波器簧片滤波器寻找映射X 7的线性滤波器H→ R具有最佳信噪比。由于Ris为正定义,因此存在一个可逆矩阵A,即R=Aa,我们可以将其与Cauchy-Schwarz不等式一起使用,以获得线性滤波器SNR的界,SNRH=| HX | HRH=| HAA-1X | HAAH=|(AH)(A)-1X)|(啊)(啊)≤|| | | |(A)-1X)(A)-1X)|(AH)(AH)=X(AA)-1X=XR-其中H,X和A分别是相应矩阵/向量的转置。达到该上限的线性滤波器Ishred=R-1X,产生最佳估计值asbXreed=arg maxxxHreed(Y)- x) HRED,但这需要对信号域进行搜索。然而,如果我们能将信号域参数化,就有可能将我们的搜索压缩成一个更简单的过程,只需要测试相对较少参数的信噪比。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:36:33
例如,如果我们先验地知道X只对几个傅里叶基函数有显著的响应,我们可以通过搜索几个傅里叶系数的域来缩短算法的搜索时间。7.1.2傅里叶变换和带宽滤波器傅里叶变换和快速傅里叶变换(FFT)算法可轻松用作线性滤波器。傅里叶基函数可以用于周期函数的谱分解,但我们可以在不丧失普遍性的情况下扩展观测到的有限向量(Y,…,YN)-1) 只需将一个向后的副本连接起来,就可以转换为一个周期函数。有了周期性,我们可以使用FFT过滤掉我们事先确定不属于信号一部分的频率。换句话说,我们对观察到的数据应用FFT,然后通过只考虑信号所在带宽内系数的逆FFT来重构信号。让我来*表示Y的傅里叶变换,定义为*k=N-1Xn=0e2πInkny和逆傅里叶变换yn=NN-1Xk=0e-2πiNknY*kwhich允许我们重建测量。带宽滤波器的核心思想是,信号存在于特定的频率范围内。例如,从Linearity我们有*= 十、*+ W*如果我们知道X的傅里叶系数的支持度包含在一个集合K中{0,…,N- 1} 这样xn=NXk∈柯-2πiNknX*k、 然后,我们可以根据相关带宽构造一个估计值。bX=NXk∈柯-2πiNknY*k、 图7.1:被认为是信号的随机游动的FFT,以及被认为是噪声的iid随机变量的FFT。噪声占据信号没有的中频。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:36:36
因此,我们只需在不考虑中间层系数的情况下反转FFT,即可构建和过滤带宽。图7.2:去除中频的带宽滤波器。估计的信号比原始测量结果更清晰,信噪比也有所增加,从sn-RY=kXk/NPnWn=7.53增加到SNRbX=kXk/NPn(Xn)-bXn=55.10,其中MSE=NPn(Xn-bXn)=0.0594。例如,假设X是一个随机游动,Y等于X加上相当大的噪声,Xn=Xn-1+BnYn=Xn+γwn,其中bn和wn是独立的白噪声,γ>0。我们应该尝试通过观察随机游动的FFT支持度,并将其与噪声的FFT进行比较,来识别包含X傅里叶系数支持度的带宽。从图7.1中我们可以看出,随机游动的主要傅里叶系数要么极高,要么极低,而噪声的傅里叶系数均匀分布在所有带宽上。如果我们将KT设为仅包含噪声的高频和低频,则重构信号将具有更高的SNR,SNRY=kX*千瓦*k=kX*凯基*- 十、*k=kX*kPn-1k=0E | Y*K- 十、*k |=kX*kPk∈科伊*K- 十、*k |+Pk/∈科伊*k |<kX*kPk∈科伊*K- 十、*k |=kX*kPk∈KE | bX*K- 十、*k |=kX*kEkbX*- 十、*k=SNRbX。事实上,如图7.2所示,当我们消除中层频率时,信号变得更清晰,信噪比从原始测量值的7.53增加到带宽滤波估计值的55.10,均方误差=0.0594.7.1.3小波滤波器小波是一种有用的工具,可用于识别噪声损坏信号的局部行为。通常情况下,测量值包含足够的信息,以便有人破译潜在的信号,这通常是因为测量值可以忽略噪声并确定测量中的运动是由信号引起的。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:36:40
这正是小波的工作原理:每个小波表示信号能够做出的运动,任何与小波产生共振的信号片段都会被移除并放置在各自的位置,作为基础信号无噪重建的一部分。小波基由一组自相似函数ψk`n=2k/2ψk(n)组成-`)对于整数k和`,其中无索引函数ψ是“母小波”。有用的小波具有相对于信号长度较小的支持(例如supp(ψ) N) ,and by construction的和应为零,且范数为1,Xn∈supp(ψ)ψn=0,Xn∈supp(ψ)|ψn |=1,其中supp(ψ)表示小波的支持。小波由k和`索引,其中k是一个扩张,而`是一个平移。选择小波的指数来形成正交基N-1Xn=0ψk`nψk`n=1k=k`=`,与任何其他谱方法一样,我们可以从其小波变换中重构函数,Yn=Xk,`DY,ψk`Eψk`n≤ N- 1,h·,·i表示内积。并不是所有的小波都可以用来形成正交基(例如墨西哥帽),但这样的小波不应该被忽略。相反,没有正交基的小波只需要使用谱分解以外的方法。对于一个信号处理问题,选择一个特定的小波是因为它与信号能够处理的局部行为的一般相似性。本质上,我们用不同厚度k的小波对函数进行卷积,这样在每次移位时,小波的局部形状都有机会与输入函数相匹配。人们使用的小波族取决于信号的性质。在离散正交基的构造中,一些可能使用的变量是symlet、coi flet、Daubechies和Haar。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:36:43
图7.3显示了symlet24、Daubechies24、coi fleet5和Haar的“母小波”。Symlet、coi flet和Daubechie小波可以根据其各自的差异程度来定义。例如,一系列symlet-5小波由一个至少有6个导数的母小波生成,因此前5个小波矩为零,Xn∈对于p=0,1,2,3,4,5,supp(ψ)ψnnp=0。一般来说,具有p+1倍可微性且尾部衰减足够快的小波将产生p个消失矩。当使用小波去噪第7.1.2节中的随机行走示例时,有许多选择,例如使用哪些小波,以及在什么参数值下,我们将去噪,而不是去噪信号。图7.4显示了小波从噪声测量中提取信号的能力,表7.1.3显示了这些小波如何更好地去除第7.1.2节中带宽滤波器的噪声。图7.3:可用于构造正交基的一些小波示例。表7.1:随机行走示例中的小波去噪。小波SNR MSEcoif2 64.90 0.0549sym2 57.89 0.0581db2 57.89 0.0581coif5 59.32 0.0573sym5 58.38 0.0578db5 57.78 0.0581haar 56.09 0.0589图7.4:如果我们使用适当的小波族,并且如果我们知道基波的哪些级别与信号无关,则小波对测量结果的去噪是有效的。7.2线性高斯模型一种特殊情况是,脉冲响应是带有高斯噪声的线性模型,Yn=Xn+Wn,其中R.=EW是平均零高斯噪声的方差/协方差矩阵。简单地假设噪声是高斯噪声,我们就能更好地推断信号的状态。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:36:46
在最简单的情况下,仅仅知道系统的协方差特性就足以在正交基上进行投影,如果模型可以显示为联合高斯结构,则投影甚至可能是后验期望。如果我们进一步假设信号根据独立的高斯模型演化,我们可以应用卡尔曼滤波器,这对于跟踪隐藏的马尔科夫过程,尤其是多维过程非常有效。7.2.1维纳滤波器将数据Y=(Y,…,YN),信号X=(X,…,XN)与噪声EW=(W,…,WN)组合,因此Y=X+ww,其中EW=0,噪声的协方差矩阵isR=EW W和X isQ的协方差矩阵E[(X)- EX)X]。Y引入的信息可以封装在创新中,V.=Y- X的最佳线性估计是它的投影PYXEX+GV,其中矩阵G是以使投影误差与后验信息正交的方式预先定义的:0=E[(X- PYX)Y]=E(十)- 前任- GV)Y= E(十)- X)X+ 工厂交货- EG(Y)- 前)Y= Q- G(Q+R)(*)我们假设EXW=0,因为结构产生的噪声应独立于信号。如果我们解决(*) 我们得到g=Q(Q+R)-1(7.1),这是最佳投影矩阵。维纳滤波器本质上是一个线性投影,使用(7.1)中的矩阵。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:36:48
注意,我们对随机变量的分布做了最小的假设;我们假设我们知道X的均值和协方差结构,以及Y中的驱动噪声。如果我们假设(X,Y)是联合高斯分布,那么任何分布与X相同的随机变量在分布上等于一个随机变量,该随机变量是Y和另一个独立于Y的高斯分量的线性和,X=dEX+F(Y)- EX)+Fz,其中Fand是系数的非随机矩阵,Z是均值零高斯且与Y无关。通过这种表示,我们得到了e[X | Y]=dEX+FV。现在,根据Y和Z的独立性,我们必须有0=E(十)- E[X | Y])Y这导致了解F=G,其中G是(7.1)给出的投影矩阵。总的来说,均方误差以后验平均值EkX为界- E[X | Y]k≤ EkX-PYXk。但如果Y和X不是联合高斯分布,则可以证明投影的均方误差将严格大于后验平均值。在图7.5中,维纳滤波器用于跟踪第7.1.2节中的随机行走示例。对于随机行走示例,矩阵为=1 1 1 1 . . . 11 2 2 2 . . . 21 2 3 3 . . . 31 2 3 4 . . . 4.1 2 3 4 . . . N, R=IN×N病态,但N=1000时舍入误差不显著。事实上,维纳滤波器的信噪比和均方误差分别为85.79和0.0479,两者都优于小波和带宽滤波器中的最佳结果(最好的是具有消失矩的系数,其信噪比=64.90,均方误差=0.0549)。这个例子说明了在所有后验估计量中,维纳滤波器如何是最优的。图7.5:应用于随机行走的维纳滤波器。信噪比=85.69,均方误差=0.0479。与带宽滤波器相比,信噪比/均方误差更高/更低,因为维纳滤波器是最佳后验估计器。备注4。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:36:52
维纳滤波器与惩罚加权最小二乘问题的相似性从以下最小化的一阶条件minX中可以明显看出XQ-1X- X(Q+R)-1Y.备注5。当X=(X,X,…,XN-1) 是一个联合高斯混合模型的实现,维纳滤波器不仅返回后验平均值,还返回最大似然X的路径。在这种情况下,估计量bxn<n-1可以被认为是平滑而不是滤波,因为它是对状态过去值的估计,bXn=E[Xn | Y0:N-1] 对于n<n- 1.备注6。用于计算Wienfer滤波器的数值线性代数不需要矩阵变换,但只需要解两个线性系统。注意,bX是线性系统(Q+R)Q的解-1bX |{z}=z=Yso首先我们求解一个线性系统的z(Q+R)z=yan,然后我们求解滤波器的bX=QZ。7.2.2卡尔曼滤波器可将卡尔曼滤波器视为维纳滤波器的推广,但对于信号模型更为具体的模型。事实上,卡尔曼滤波器是HMM的滤波器,其动态是高斯和完全线性的,Xn=AXn-1+BnYn=HXn+wn,其中W和B是独立的高斯随机变量,协方差矩阵q=EBnBnR=ewwn(7.2),两者均为正定义,且(X,Y)的分布为联合高斯分布。我们可以把这两个方程写成一个线性系统,XnYn=A 0HA 0Xn-1Yn-1.+√Q 0H√RBnWn(7.3)这显然是一个非退化高斯系统。事实上(7.3)有一个平稳的平均值,如果数字1不包括在a的光谱中。给定数据Y0:n=(Y,…,Yn),卡尔曼滤波器将通过迭代重新定义Xn的最佳投影,找到Xn到Y所跨越的高斯子空间的最佳投影-1到Y0:n所跨越的空间-1.
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:36:55
此外,由于(X,Y)是联合高斯分布的,所以最优投影将与后验平均值等价。在这种情况下,我们可以识别一系列高斯随机变量,它们是Innovationsvn伊恩- 哈布森-1,但这个想法基本上与维纳过滤器中的想法相同。最初,让bx=E[X | Y]我们使用维纳滤波器来获得bx=EX+G(Y)- 其中G=var(X)(R+var(X))-1.显然,X-bX⊥ Y、 我们可以很容易地确定(X,bX,Y)是联合高斯分布的,所以它遵循X-bXis独立于Y,因此后验协方差不是随机变量,∑=呃(X)-bX)XYi=E(X)-bX)X.现在我们进行归纳,以确定Xngiven Y0:n的过滤器。假设我们已经获得了时间n之前的过滤器- 1例为后部平均值bxn-1.=E[Xn-1 | Y0:n-1] ,Xn-1.-bXn-1独立于Y0:n-1,且协方差矩阵∑n-1.=Eh(Xn)-1.-bXn-1) Xn-1.Y0:n-1i=Eh(Xn-1.-bXn-1) Xn-1i。当观测值到达时,最佳投影为pnxnAbXn-1+gnvn,其中gni是在时间n已知的投影矩阵-1.这在伊恩被杀之前就已经知道了。我们可以验证o以Y0:n为条件的(Xn,Yn)分布-1是联合高斯分布,并且ovn与Y0:n无关-1,因此bxn=PnXn。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:36:59
我们还可以为预测协方差矩阵∑n | n编写以下表达式-1.=Eh(Xn)- AbXn-1) XnY0:n-1i=Eh(AXn-10亿多- AbXn-1) (AXn)-1+Bn)i=A∑n-1A+q根据投影残差与数据的正交性,我们应该有一个满足以下等式的投影矩阵,0=Eh(Xn-bXn)YnY0:n-1i=Eh(Xn- AbXn-1) 新罕布什尔州Y0:n-1i- EhGn伊恩- 哈布森-1.伊恩Y0:n-1i=∑n | n-1小时- GnH∑n | n-1H+R.我们求解该方程以获得最佳投影矩阵,也称为卡尔曼滤波增益矩阵xgn=∑n | n-1小时H∑n | n-1H+R-1(7.4)使用增益矩阵,我们可以将后验平均值作为创新和前一次后验平均值bxn=AbXn的递推函数写入-1+GnVn。(7.5)此外,我们可以验证(Xn,bXn,Yn)的条件分布是jointlyGaussian的,并且因为E[(Xn-bXn)Ym]=0表示所有m≤ n、 因此Xn-bxn与Y0:n无关。因此,协方差矩阵不是数据∑n=Eh(Xn)的函数-bXn)Xni=Eh(Xn-bXn)XnY0:n-1i=Eh(Xn- AbXn-1) XnY0:n-1i- GnEh(Yn- 哈布森-1) XnY0:n-1i=A∑n-1A+Q- GnHA∑n-1A+Q= (一)- GnH)∑n | n-1.总结一下,我们已经证明Xn-bXn~ N(0,∑N)独立于Y0:N,并根据方程(7.4),(7.5)以及∑N | N的方程-1和∑n我们在时间n∑n | n处有卡尔曼滤波器-1=A∑n-1A+QGn=∑n | n-1小时H∑n | n-1H+R-1bXn=AbXn-1+GnVn∑n=(I)-GnH)∑n | n-1xNISP的后验密度(Xn∈ dx | Y0:n)=(2π|∑n |)d/2exp-(十)-bXn)∑-1n(x)-bXn)其中d是Xn的尺寸∈ Rd.在图7.6中,我们看到了卡尔曼滤波器跟踪同一随机游动示例的能力,我们在该示例上测试了第7.1.2、7.1.3和7.2.1节中的滤波器。图7.6:应用于随机行走示例的卡尔曼滤波器。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:37:01
Kalman滤波器估计的路径总体上不是最优的,但是Kalman滤波器返回的每一条路径在给定信息Y0:n的情况下都是最优的。随机游走模型是Xn=Xn-1+BnYn=Xn+γWn。随机游动的卡尔曼滤波器isGn=(n∑)-1+ 1)∑n-1+ 1 + γ-1bXn=bXn-1+Gn(Yn)-bXn-1) ∑n=(1)- Gn)(n)-1+ 1) .给定Y0:N,卡尔曼滤波器返回XN的最佳估计量,而不是X所采用的整个路径。事实上,卡尔曼滤波器的路径SNR=43.88,MSE=0.0668,两者都比其他滤波器好。但这个例子不应该成为卡尔曼滤波的证据,它只是表明,事先估计信号的整个过程并不是它的特长。当Kalman滤波器应用于X是多维向量的问题时,它远远优于我们讨论过的其他滤波器。当每个观测值都是一个向量时,维数的过程使得无法使用带宽和小波所需的基,维纳滤波器所需的矩阵的大小也非常大。另一方面,卡尔曼滤波器工作高效且实时。备注7。对于HMMs,卡尔曼滤波器和维纳滤波器在估计信号的最新值bXwienerN时是一致的-1=E[XN-1 | Y0:N-1] =bXkalmanN-1.备注8。卡尔曼滤波器确实能够处理高维信号,但在计算增益矩阵时,不存在避免矩阵逆显式计算的通用程序。有时这种逆运算可能是可控的,但我们计算矩阵逆运算能力的局限性代表了卡尔曼滤波器容量的上限。第8章Baum-Welch&ViterbialGorithms完全离散HMM类的滤波方程相对简单,可以通过后验概率的贝叶斯处理来推导。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:37:04
这些离散算法很有趣,因为它们在一个非常简单的框架中体现了HMM理论最强大的元素。这些方法易于实现,并已成为需要机器学习算法的appliedareas中的主力。滤波、平滑和参数估计的算法与连续模型中的算法类似,但在离散环境中,理解所需的理论背景最少。8.1滤波、平滑和预测方程让n表示离散时间,并假设Xn是一个未观测到的马尔可夫链,在离散状态空间中取S表示的值。让∧表示Xn的转移概率核,因此p(Xn+1=x)=Xv∈任意x的S∧(x | v)P(Xn=v)∈ S、 P(X=X)=P(X)。噪声测量以过程Yn的形式进行,过程Yn是Xn的非线性函数,加上一些噪声,Yn=h(Xn)+wn,其中wn是均值为零且方差γ>0的iid高斯随机变量。这个离散模型的主要特点是无记忆通道,它允许进程“忘记过去”:P(Yn,Xn=x | Xn-1=v,Y0:n-1) =P(Yn | Xn=x)∧(x | v)对于任意n≥ 0和所有x,v∈ S.8.1.1过滤过滤质量函数为πn(x)P(Xn=x | Y0:n)对于所有x∈ 通过应用Bayes规则和HMM的属性,我们能够分解πnas如下,πn(x)=P(Xn=x,Y0:n)P(Y0:n)=Pv∈SP(Yn,Xn=x | Xn-1=v,Y0:n-1) P(Xn)-1=v,Y0:n-1) P(Y0:n)=P(Yn | Xn=x)Pv∈SP(Xn=x | Xn-1=v)P(Xn-1=v,Y0:n-1) P(Y0:n)=P(Yn | Xn=x)Pv∈S∧(x | v)P(Xn)-1=v | Y0:n-1) P(Yn | Y0:n)-1) =P(Yn | Xn=x)Pv∈S∧(x | v)πn-1(v)Px∈snumerator无记忆通道允许在第二行和第三行之间进行调节。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:37:08
过滤质量的这种递归分解是前向鲍姆韦尔奇方程,对于高斯观测噪声πn(x)=cnψn(x)Xv的系统,可以显式地写出∈S∧(x | v)πn-1(v)(8.1),其中Cn是归一化常数,ψnis是似然函数ψn(x)P(Yn | Xn=x)=exp(-伊恩- h(x)γ).等式(8.1)很方便,因为它可以使分布保持更新,而不必在新数据到达时重新计算旧的统计数据。在“实时”中,使用该算法跟踪X的最新动向是很有效的,但在新数据到达后,旧的过滤估计将不会是最优的。必须使用平滑分布来确定过去某个时间X的最佳估计。8.1.2平滑在收集数据之前的一段时间内,平滑质量函数为πN | N(x)。=P(Xn=x | Y0:N)。通过应用贝叶斯规则和模型的性质,光滑质量可以写成如下,πn | n(x)=P(Yn+1:n | Xn=x)πn(x)P(Yn+1:n | Y0:n)=Pv∈SP(Yn+1:N | Xn+1=v,Xn=x)λ(v | x)πN(x)P(Yn+1:N | Y0:N)=Pv∈SP(Yn+2:N | Xn+1=v)ψN+1∧(v | x)πN(x)P(Yn+2:N | Y0:N+1)P(Yn+1 | Y0:N)=Pv∈SP(Yn+2:N | Xn+1=v)ψN+1∧(v | x)πN(x)P(Yn+2:N | Y0:N+1)cn+1。(*)式中,cn+1是等式(8.1)中的归一化常数。现在假设我们定义了时间n之后事件的似然函数,αNn(x)=P(Yn+1:n | Xn=x)P(Yn+1:n | Y0:n),对于n<n,按照αNn的约定≡ 1.然后,平滑质量可以写成滤波质量与απn | n(x)=αNn(x)πn(x)的乘积,并从(*) 我们可以看到,αNNI由向后的Baum-WelchEquationαNn(x)=cn+1Xv递归给出∈SαNn+1(v)ψn+1(v)∧(v | x)。(8.2)显然,平滑分布的计算需要计算时间N之前的所有滤波分布,然后向后递归计算αN。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:37:11
作为交换,X的估计序列将表明X所采取的路径比过滤估计所建议的路径更合理。8.1.3预测预测分布比平滑更容易计算。当n<n时,预测分布为πn | n(x)=P(XN=x | Y0:n),仅通过外推滤波分布πn | n(x)=Xv来计算∈S∧(x | v)πN-1 | n(v)=Xv∈S∧N-n(x | v)πn(v),其中∧n-N上的转移概率- n个时间步。如果Xnis是一个正的递归马尔可夫链,那么存在一个不变量,预测分布将收敛为N→ ∞. 在某些情况下,这种收敛发生的速率将与∧中的谱隙成正比。假设XNCA可以取m-多个有限状态中的一个,并且是一个只有1个通信类的循环马尔可夫链。让∧∈ Rm×mbe是x的转移概率矩阵,假设∧ji>0,那么p(Xn+1=xi | Xn=xj)=对于所有i,j≤ m、 那么预测分布是πN | N=πN∧N-nand将以与∧的第二特征值成正比的速率指数快速收敛到不变测度。要了解这是为什么,请考虑特征向量(ui)i的基础≤mof∧,其中一些可能是广义的,ui+1(λ- βiI)=对于某些i≥ 1.假设u是Xn的唯一不变质量函数,我们得到∧=u。根据Perron-Frobenius定理,我们可以对特征值进行排序,使1=β>|β|≥ |β| ≥ ··· ≥ |βm |,我们知道β是特征多项式的简单根,因此μ不是广义特征向量。从这里我们可以看到-klog kπn∧k- uk=-klog k(πn)- u)λkk=-klog k(au+au+…amum)∧kk=-klog kau+aβku+。amum∧kk~克洛格1+a |βk|~ |β| as k→ ∞.
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:37:15
λ的光谱带隙为1- |β|,从收敛速度来看,更大的谱隙意味着预测分布收敛到不变测度所需的时间更短。一般来说,如果存在整数k<∞ 其中∧kji>0表示所有i,j≤ m、 8.2学习参数的Baum-Welch算法假设我们对HMM有完全准确的先验知识是不现实的。然而,X的平稳性意味着我们可以观察到X的重复行为,尽管是通过噪声测量,但我们应该能够判断X占据部分状态空间的频率和它移动的频率。如果我们已经基于某种意义上“接近”的模型计算了平滑分布,那么我们应该有nnxn=1P(Xn=x | Y0:N)≈ u(x)(8.3)NNXn=1P(Xn=x,Xn-1=v | Y0:N)≈ ∧(x | v)u(v)(8.4),其中u是x的平稳律。通过Baum-Welch算法,我们实际上可以使用一些优化技术来找到一系列具有递增可能性的模型估计,结果表明,(8.3)和(8.4)与选择模型序列的最佳改进类似。考虑两个模型参数θ和θ。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:37:19
Baum-Welch算法使用KullbackLeibler散度来比较两个模型,0≤ D(θkθ)=X~X∈SN+1Pθ(X0:N=~x,Y0:N)Pθ(Y0:N)logPθ(X0:N=~x,Y0:N)Pθ(Y0:N)Pθ(X0:N=~x,Y0:N)Pθ(Y0:N)!=logPθ(Y0:N)Pθ(Y0:N)+X~X∈SN+1Pθ(X0:N=~x,Y0:N)Pθ(Y0:N)对数Pθ(X0:N=~x,Y0:N)Pθ(X0:N=~x,Y0:N).如果我们设置q(θkθ)=X~X∈SN+1Pθ(X0:N=~x,Y0:N)对数Pθ(X0:N=~x,Y0:N),然后我们有一个简化的表达式,0≤ D(θkθ)=logPθ(Y0:N)Pθ(Y0:N)+Q(θkθ)- Q(θkθ)Pθ(Y0:N)和重新排列不等式Q(θkθ)- Q(θkθ)Pθ(Y0:N)≤ logPθ(Y0:N)Pθ(Y0:N)!,从中我们可以看出,Q(θkθ)>Q(θkθ)意味着θ的可能性大于θ。Baum-Welch算法使用该不等式作为迭代确定估计模型参数的标准的基础。该算法得到一个序列{θ`}\',其q(θ`-1kθ`)≥ 所以它们的概率在增加,但有界,Pθ`-1(Y0:N)≤ Pθ`(Y0:N)≤ P^θmle(Y0:N),其中^θmle是θ的最大似然估计。因此,{θ`}将在θ处有一个极限*这样pθ*(Y0:N)=lim`Pθ(Y0:N),但可能是Pθ*(Y0:N)<P^θmle(Y0:N)(见图8.1)。图8.1:Baum-Welch参数估计序列的可能性越来越大,但该序列出现在局部最大值。在进行计算时,需要找到Q(θk·)的最大值(可能只是局部最大值)。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:37:22
一阶条件是找到一个的好方法,使用HMMwe可以将Q(θkθ)扩展为显式形式,Q(θkθ)=X~X∈SN+1Pθ(X0:N=~x,Y0:N)(ψθ(~x)pθ(~x)+NXn=1logψθn(~xn)∧θ(~xn | ~xn)-1)),(8.5)从中我们可以看出,可以对θ进行微分,添加拉格朗日数,然后求解最优模型估计。Baum-Welch算法等价于期望最大化(EM)算法;EM算法使对数似然函数的期望值最大化,这相当于最大化Q,θ`=arg maxθEθ`-1hlogPθ(Y0:N,X0:N)Y0:Ni=arg maxθQ(θ`-1kθ)。8.2.1参数转移概率的模型重新估计假设Xn∈ Z、 转移概率由θ参数化∈ (0, ∞) 所以p(Xn+1=i | Xn=j)=c(θ)exp{-θ| i- j |},i、 j∈ Z、 式中c(θ)=P∞我=-∞经验{-θ| i- j |}。忽略不依赖于θ的部分,对数似然为q(θkθ)=-NXn=1Eθhθ| Xn- Xn-1 |+对数c(θ)如果我们对θ进行微分,我们有以下一阶条件:,θQ(θkθ)=-NXn=1Eθ“| Xn- Xn-1|-Pi | i- j | exp{-θ| i- j |}c(θ)FYN#=0对于任何j∈ Z.一阶条件的解是满足θh | X的θ- X|X=ji=NNXn=1Eθh |Xn- Xn-1|有限状态马尔可夫链的任意j.8.2.2模型重估计∈ S={1,…,m},所以p(Xn+1=i | Xn=j)=∧ji代表所有i,j∈ 我们将寻找一个序列∧(`),它使Q(λ)最大化(`-1) k·)受约束所有j的pi∧ji=1≤ m、 让δjbe为jthconstraint的拉格朗日乘子,一阶条件如下:,∧jiQ(λ)(`-1) k∧)- δjXr∧jr=∧jiQ(λ)(`-1) k∧)- δj=0。(**)乘以∧j求和i中的表达式(**) 变成0=Xi∧ji∧jiQ(λ)(`-1) k∧)- δj=Xi∧ji∧jiQ(λ)(`-1) k∧)- δj表示δj=Pi∧ji∧jiQ(λ)(`-1) k∧)。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:37:26
乘(**) 通过∧j,然后重新排列项,发现必须在∧的集合中选择最佳∧(`)ji,使得∧ji=∧ji∧jiQ(λ)(`-1) k∧Pr∧jr∧jrQ(λ(`-1) k∧)。(8.6)现在,使用(8.5)中的展开式,Q(λ)的导数(`-1) k∧)关于∧ji,可计算如下:∧jiQ(λ)(`-1) k∧=E∧jilog P(Y0:N,X0:N |∧)Y0:N,λ(`-1)= E“NXn=1∧ji{Xn=i,Xn-1=j}Y0:N,λ(`-1) #=∧jiNXk=1P(Xn=i,Xn)-1=j | Y0:N∧(`-1) 通过将其代入方程(8.6),很容易看出解是∧(`)ji=PNn=1P(Xn=i,Xn)-1=j | Y0:N∧(`-1) )Pinumerator(8.7),其中P(Xn=i,Xn-1=j | Y0:N∧(`-1) )=αNn(i)ψn(i)∧(`-1) jiπn-1(j)。方程(8.7)也加强了∧ji的非负性,这是算法适定性所必需的。等式(8.7)相当于(8.3)和(8.4)中推测的估计值。8.3维特比算法有时更重要的是估计X的整个路径。维特比算法应用HMM的特性以及动态规划来寻找异常最优序列bv0:N∈ SN+1最大化关节后验概率bv0:N=(bV,…,bVN)。=arg max~x∈SN+1P(X0:N=~x,Y0:N)。给定数据Y0:N,平滑可用于“回顾”和估计Xnforsome N<N,但方程(8.1)或(8.2)都不是联合后验概率,这意味着它们无法告诉我们路径x的后验概率∈ SN+1。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:37:29
如果我们需要计算X路径的后验分布,问题的大小将随着N呈指数增长,但是维特比算法允许我们在不实际计算所有路径的后验概率的情况下获得X路径的MAP估计器。HMM的无记忆通道允许我们在路径上写最大化作为嵌套的最大化,max~x∈SN+1P(X0:N=~ x,Y0:N)=最大值∈SψN(v)max~x∈SN∧(v | ~xN)-1) P(X0:N)-1=~x,Y0:N-1) =ψN(bVN)max~x∈SN∧(bVN | ~xN)-1) P(X0:N)-1=~x,Y0:N-1) ,(+)式中,ψ为似然,Cn为归一化常数,均来自(8.1)中的正向鲍姆韦尔奇方程。为了利用这种嵌套结构,它有助于定义以下递归函数φ(v)ψ(v)P(X=v)φn(v)ψn(v)maxx∧(v | x)φn-1(x),对于n=1,2,3,N.然后我们把φ放在(+)的嵌套结构上,并反向工作以获得最优路径,bVN=arg maxvφN(v)bVN=arg maxv∧(bVN+1 | v)φN(v),对于N=N- 1,N- 2.2,1,0thus在O(N)中获得最佳路径-许多计算。那得花点时间|S|N为了获得路径的后验分布,需要进行许多计算。我们对维特比算法感兴趣,主要是因为滤波和平滑算法返回的估计路径可能是9。φ中的非规范化概率很快就会下降到机器精度水平以下,因此最好考虑对数版本的维特比,logφ(v)=logψ(v)+log P(X=v)logφn(v)=logψn(v)+maxx{log∧(v|X)+logφn-1(x)}并在动态规划步骤中使用对数φn,bVN=arg maxvlogφn(v)bVN=arg maxvnlog∧(bVN+1 | v)+logφn(v)o,表示n=n-1,N- 2.2, 1, 0.第九章粒子滤波蒙特卡罗方法已经成为从HMM计算量的最常用方法,而且有充分的理由;事实上,它们是获得一致估计的快速有效的方法。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:37:32
尤其是,粒子过滤器用于近似过滤预期。有类似的方法利用贝叶斯公式从HMM中获取样本,但“粒子滤波”意味着顺序蒙特卡罗(SIS)和抽样重要性抽样(SIR)应用于特定的HMM。9.1粒子滤波器支持X是一个未观测到的马尔可夫链,在状态空间中取值,用S表示。设∧表示Xn的跃迁密度的核,因此ddxp(Xn+1≤ x) =Z∧(x | v)P(Xn)∈ dv)对于任何x∈ S、 和ddxp(X≤ x) =p(x)。假设观测过程Yn是Xn的非线性函数,Yn=h(Xn)+wn,其中wn是均值为零且方差γ>0的iid高斯随机变量。在这种情况下,滤波器很容易被证明是一个密度函数,递归给出为πn+1(x)=cn+1ψn+1(x)Z∧(x | v)πn(v),其中cn+1是一个归一化常数,ψn+1是一个似然函数ψn+1(x)=exp(-Yn+1- h(x)γ),但是如果我们要使用这个递归表达式,就需要在S上建立某种正交网格。另一种方法是使用粒子。9.1.1序贯重要性抽样(SIS)理想情况下,我们能够直接从过滤分布中取样,以获得阿蒙特·卡洛估计值,PPX`=1g(x`n)≈ E[g(Xn)|FYn],对于P-large,其中x`n~ iidπn(x)。然而,计算πnalso的困难也使得获得样本变得困难。然而,相对容易的是,我们可以从无条件分布中依次获得样本,然后以近似过滤器的方式分配权重。对于“=1,2,3,4,…”,每个粒子都是一条路径x`0:n,它是根据无条件分布x生成的`~ p(·)x`n~ ∧(·| x`n)-1) 对于n=1,2,3,N.那么对于P-多粒子和任何可积函数g,强大的数定律告诉我们ppx`=1g(x`0:N)→ E[g(X0:N)]几乎可以肯定为P→ ∞.给定Y0:n,让ω`n表示粒子的重要性权重。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 07:37:35
我们将ω`nto定义为与第个粒子路径的可能性成比例,我们可以将其递归地写为其旧权重和一个似然函数的乘积:ω`n=cnP(Y0:n | X0:n=x`0:n)=cnψn(x`n)ω`n-1对于n=0,1,2,3。。。。。,n按照ω的约定`-1.≡ 1,Cn是一个归一化常数Cn=PX`=1ψn(x`n)ω`n-1.然后可积函数g(XN)的滤波期望可以用加权粒子一致地近似,PX`=1g(x`N)ω`N=PPP`=1g(x`N)P(Y0:N | X0:N=x`0:N)PPP`=1P(Y0:N | X0:N=x`0:N)→E“g(~XN)P(Y0:N | ~X0:N)FYN#E“P(Y0:N | | X0:N)FYN#=E[g(XN)| FYN]几乎可以肯定为P→ ∞ 通过SLLN,其中X0:Nis是一个分布(p,λ)且独立于(X0:N,Y0:N)的随机变量。9.1.2采样重要性重采样(SIR)当SIR与SIS一起使用时,我们对E[g(XN)|FYN]的估计变成了粒子滤波器。SIR基本上在时间n时对样本{x`0:n}调用一个引导。这个过程将把我们的采样资源重新分配到更可能接近真实信号的粒子上。调用时,SIR执行以下操作:算法1。长官,启动程序。对于“=1。P根据{ωn,…,ωPn}从{xn,…,xPn}中抽取一个随机变量x`,sirnfrom{xn,…,xPn}。结束于{xn,…,xPn}← {x1,sirn,…,xP,sirn}。{ωn,…,ωPn}← {1/P,…,1/P}。调用SIR的常见标准可能与粒子分布的熵近似有关。在执行SIR之前的任何时间n,熵定义为n=-X\'ω\'nlogω\'n≥ -logX`(ω\'n)!>所以最大化粒子分布的熵和最小化后验权重的平方和大致相同。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群