MSE:概念 为均方误差准则 mse(θ^)=E{(θ^−θ)2}=var(θ^)+b2(θ) 与真值有关,一般不可实现
MVU:最小方差无偏估计 要求 min{var(θ^)}s.t.E(θ^)=θ。先无偏,再方差最小。
MVU 要求无论待估计参数是多少,其方差都是最小的,因此要求一致最小方差无偏估计。注意:不一定存在无偏估计。只是在所有无偏估计中方差最小,在所有(含偏)估计量当中不一定方差最小。CRLB 为 MVU 的性能界。MVU 不一定会达到这个界,这个值只是 MVU 方差上界的参考。
CRLB:条件满足正则条件:E[∂θ∂lnp(x;θ)]=0那么一定有:Cθ^−I−1(θ)≥0var(θ^i)=[Cθ^]ii≥[I−1(θ)]ii 其中:[I(θ)]ij=−E[∂θi∂θj∂2lnp(x;θ)]即,当且仅当 ∂θ∂lnp(x;θ)=I(θ)(g(x)−θ)方可取 Cramer-Rao 下限。θ^=g(x)。
参数变换下 CRLB:线性变换可保持估计量有效性,非线性变换不能保持估计量有效性。非线性变换虽不能保持估计量有效性,却是渐近有效的。CRLB 参数变换公式:var(α^)≥E[(∂θ∂lnp(x,θ))2](∂θ∂g(θ))2
利用 CRLB 求 MVU 条件:1.满足正则条件,2.必须可以达到 CRLB,3.容易求解g(x)。4.必须要求似然函数(必须知道(PDF)
充分统计量
充分统计量定义:包含原始数据有关待估计参数所有信息的统计量。若p(xT(x);θ)=p(xT(x))
表示T(x)包含了观测数据有关待估计参数θ有关的所有信息,此时T(x)称之为充分统计量。
一旦充分统计量确定,似然函数就与待估计参数无关。充分统计量依赖于待估计参数。待估计参数变化,其相应的充分统计量一般也会变化。充分统计量并不唯一。原始观测量总是充分统计量,但通常不是最小集。
求充分统计量的方式:若p(x;θ)可以分解为:p(x;θ)=g(T(x),θ)h(x)
1.T(x)是θ的充分统计量 2.若T(x)是θ的充分统计量,因子分解定理成立
Rao-Black-Lehmann-Scheffe 定理
若θ˘是θ的无偏估计,T(x)是θ的充分统计量,那么θ^=E(θ˘T(x)) 是θ的一个适用的估计量(与θ无关),无偏估计量、方差小于θ˘的方差,若T(x)是完备的那么θ^是 MVU 估计量。
∫−∞+∞v(T)p(T;θ)dT=0只对零函数v(T)=0成立,则称充分统计量是完备的。
注意:充分统计量总是存在的,只有充分统计量完备才可以求得 MVU 估计量。但充分统计量不一定完备,所以通过此方法不一定求得 MVU。只是提供了一种可能的路径。求 MVU 的使用条件:1.充分统计量完备;2.Neyman-Fisher 因子分解一定要好分解;3.需要似然函数(PDF)
线性模型与最佳线性无偏估计(BLUE)
线性模型:x=Hθ+s+w其中,x是N×1维的观测数据,H是 N×p(N>p) 维、秩为p的观测矩阵,θ是p×1维的带估计参数矢量,s是N×1维的已知信号矢量,w是N×1维的噪声矢量且服从N(0,C)。
我们可以得到:p(x,θ)=(2π)N/2(det(C))1/21exp{−21(x−s−Hθ)TC−1(x−x−Hθ)}和lnp(x;θ)=−ln{(2π)N/2(det(C))1/2}−21(x−s−Hθ)TC−1(x−s−Hθ)
利用∂θ∂lnp(x;θ)=I(θ)(g(x)−θ) 我们得到θ^=(HTC−1H)−1HTC−1(x−s)Cθ^=(HTC−1H)−1容易得到θ^∼N(θ,(HTC−1H)−1)
**BLUE:**限定了估计量与观测数据之间呈线性关系:θ^=∑N−1anx[n]=aTx,其中a=[a0,a1,...,aN−1]T由E(θ)=n=0∑N−1anE(x[n])=θ得到E(x[n])=s[n]θ然后有E(x)=sθ我们得到aTs=1
**BLUE:**由var(θ^)=aTCa我们得到 BULUE 数学描述 min{aTCa}s.t.aTs=1 在线性情况下方差最小。得到θ^=aoptTx=sTC−1ssTC−1x。方差为var(θ^)=aoptTCaopt=sTC−1s1
一般求解形式:与线性模型相同θ^=(HTC−1H)−1HTC−1(x−s)Cθ^=(HTC−1H)−1 但是不需要知道信号的 PDF 只需要知道协方差矩阵C。若为高斯噪声,则 BLUE 为 MVU,且为有效估计量。若数据高斯的,则 BLUE 等效于 MVU,是有效的(高斯-马尔可夫定理)。
最大似然估计 MLE(数值解法)
当有效估计量存在时,使用最大似然估计方法就可以求得。更一般的:如果数据x的 PDFp(x;θ)满足“正则”条件,那么对于足够多的数据记录,未知参数θ的 MLE 渐近服从θ^∼N(θ,I−1(θ))其中I(θ)是在未知参数真值处计算的 Fisher 信息。
特点:MLE 是渐近无偏的,MLE 渐近达到 CRLB,MLE 是渐近有效的,MLE 是渐近最佳的。MLE 的方差可大于、等于、小于 CRLB。但数据量足够多时,将与 CRLB 接近。因此, 可利用 CRLB 评估 MLE 的性能。注意:若存在有效估计量,那么 MLE 可以求得。
MLE 的不变性:若α=g(θ)参数,则α的 MLE 由下式给出α^=g(θ^)。其中θ^是θ的 MLE。原因:α^=argαmaxpT(x;α)pT(x;α)={θ,α=g(θ)}maxp(x;θ)
**数值解法:**1.网格搜索法;特点运算时间长。2.Newton-Raphson 迭代法;θk+1=θk−∂θ2∂2lnp(x;θ)−1∂θ∂lnp(x;θ)θ=θk特点迭代有可能不收敛。当对数似然函数二阶导数较小时尤为明显。每次迭代间修正项起伏可能较大,即使收敛,求得的可能不是全局最大值而是局部最大值、甚至是局部最小值。使用时,建议多采用几个起始点。3.得分法θk+1=θk+I−1(θ)∂θ∂lnp(x;θ)θ=θk 利用它的期望值代替其二阶导数,大概率会增加迭代的稳定性。
最小二乘估计(LSE)(序贯)
定义:已知信号模型s[n;θ],观测数据为x[n]=s[n;θ]+w[n],θ的最小二乘估计为θ^=argθmin{n=0∑N−1(x[n]−s[n;θ])2}其中J(θ)=n=0∑N−1(x[n]−s[n;θ])2称为最小二乘误差。
若信号s=[s[0],s[1],s[2],...,s[N−1]]T与未知参数θ=[θ1,θ2,θ3,...,θp]T呈线性关系s=Hθ,观测数据模型为x=Hθ+w得到θ^=(HTH)−1HTx得到最小 LS 误差为Jmin=xT(x−Hθ^)
正交原理:表示误差矢量与信号矢量是正交的。ε=x−Hθ^ 为误差矢量。正交原理公式表达 εTH=0T。
加权最小二乘J(θ)=(x−Hθ)TW(x−Hθ) 一般 W=C−1 得到θ^=(HTC−1H)−1HTC−1x
序贯举例说明:不相关噪声中电平估计问题:x[n]=A+w[n],n=0,1,...,N−1待估计参数为A,w[n]为不相关噪声且var(w[n])=σn2。
加权 LSE:J(A)=n=0∑N−1σn21(x[n]−A)2 可以得到 A^=n=0∑N−1σn21x[n]/(n=0∑N−1σn21) 若令A^[N−1]=n=0∑N−1σn21x[n]/(n=0∑N−1σn21)则容易得到估计量更新公式A^[N]=A^[N−1]+K[N](x[N]−A^[N−1])其中 K[N]为增益因子:K[N]=∑n=0Nσn21σN21=∑n=0N−1σn21+σN21σN21=var(A^[N−1])1+σN21σN21。LSE 方差更新公式var(A^[N])=(1−K[N])var(A^[N−1])。最小 LS 误差更新公式:Jmin[N]=Jmin[N−1]+(1−K[N])σN2(x[N]−A^[N−1])2。
约束最小二乘估计:s.t.Aθ=b 得到 θ^c=θ^−(HTH)−1AT[A(HTH)−1AT]−1(Aθ^−b)在无约束 LSE 的基础上加一“修正项”。
非线性最小二乘估计:1.网格搜索法;2.参数变换法,核心思想:将非线性参数转换为线性参数来求解;3.参数分离法:核心思想:将非线性参数尽量转换为线性参数,以减小复杂度;4.Gauss-Newton 迭代法:核心思想:非线性问题线性化后迭代求解;5.循环最小化方法:将待估计参数分为两部分:θ=[ξσ]T固定一个变一个求最小直到收敛。
一般贝叶斯估计(MMSE)
贝叶斯均方误差:∫∫(θ−θ^)2p(x,θ)dxdθ=Bmse(θ^)=E((θ−θ^)2) 贝叶斯 MSE 将待估计参数作为随机变量,引入了待估计参数分布情况。加入了先验信息。
一般贝叶斯估计为:min{Bmse(θ^)}等价于min{∫(θ−θ^)2p(θ∣x)dθ}对此求导容易得到θ^=E(θ∣x)其中p(θ∣x)=∫p(x∣θ)p(θ)dθp(x∣θ)p(θ)。使贝叶斯 MSE 最小的估计
量是后验概率均值相应的估计量称为最小均方误差估计量。
主要例题:白噪声中电平估计问题x[n]=A+w[n],n=0,1,...,N−1 其中 w[n]∼N(0,σ2)A∼N(μA,σA2)求A的 MMSE。p(A)=2πσA21exp{−2σA21(A−μA)2}p(x∣A)=(2πσ2)N/21exp{−2σ21n=0∑N−1(x[n]−A)2}p(A∣x)=∫p(x∣A)p(A)dAp(x∣A)p(A)=∫−∞∞exp{−2σ21n=0∑N−1(x[n]−A)2−2σA21(A−μA)2}dAexp{−2σ21n=0∑N−1(x[n]−A)2−2σA21(A−μA)2}=2πσA∣x21exp{−2σA∣x21(A−μA∣x)2}
其中:μA∣x=(σ2Nx+σA2μA)σA∣x2,σA∣x2=σ2N+σA211 可以求得A^=E(A∣x)=μA∣x 我们可以计算 Bmse(A^)=∫var(A∣x)p(x)dx=σ2N+σA211<Nσ2 好的先验知识改进了估计性能。
贝叶斯一般线性模型x=Hθ+w,其中θ∼N(μθ,Cθ)w∼N(0,Cw) 那么有 θ^=μθ+CθHT(HCθHT+Cw)−1(x−Hμθ)Cθ∣x=Cθ−CθHT(HCθHT+Cw)−1HCθ=(Cθ−1+HTCw−1H)−1
MMSE 性质:线性变换不变性若a=Aθ+b,θ的 MMSE 估计量为 θ^,则a的 MMSE 为a^=Aθ^+b。注意:MMSE 估计量的误差是零均值的。误差ε=θ−θ^=θ−E(θ∣x)误差服从ε∼N(0,(Cθ−1+HTCw−1H)−1)
**贝叶斯风险:**R=∬C(ε)p(x,θ)dxdθ若C(ε)=θ−θ^求得θ^是后验 PDF 的中值;若C(ε)={0,∣θ−θ^∣<δ1,∣θ−θ^∣≥δ求得θ^是后验 PDF 的最大值(众数)
MAP 最大后验概率估计:θ^=argθmaxp(θ∣x)=θargmax{lnp(x∣θ)+lnp(θ)}MAP 不具有变换不变性。当观测数据足够多时,MAP 估计变成贝叶斯 MLE
线性贝叶斯估计(LMMSE)
公式定义min{E[(θ−θ^)2]}s.t.θ^=∑n=0N−1anx[n]+aN 可以得到 θ^=E(θ)+CθxCxx−1(x−E(x))Bmse(θ^)=Cθθ−CθxCxx−1Cxθ 对于贝叶斯一般线性模型,LMMSE 与 MMSE 具有相同形式。即 LMMSE 估计量的误差是零均值的。若为高斯分布,则 LMMSE 为 MMSE Cxθ=E(θx)Cxx=E(xTx)
信号检测
**右尾概率:**Q(x)=x∫∞2π1exp{−21t2}dt 性质 $1-Q(x)=Q(-x) \qquad Q^{-1}(x)=-Q^{-1}(1-x)若x_i\sim N(0,1)则x=\sum\limits^\nu_{i=1} x_i^2服从中心\chi_\nu^2若x_i \sim N (\mu_i,1),则x=\sum\limits^\nu_{i=1} x_i^2服从非中心\chi_\nu^2(\lambda) \qquad \lambda=\sum\limits^\nu_{i=1} \mu_i^2$
**NP 原则:**在虚警概率一定的情况下使得检测概率最大。判决为L(x)=p(x;H0)p(x;H1)>γ WGN 情况下检验统计量 T(x)=N1∑n=0N−1x[n]PFA=Pr(T(x)>γ;H0)γ′=Nσ2Q−1(PFA)PD=Q(Q−1(PFA)−σ2NA2)
**最小错误原则:**Pe=P(H0,H1)+P(H1,H0) 使得错误概率最小 判决准则 p(x∣H0)p(x∣H1)>P(H1)P(H0) 判别为H1,同样也是最大后验概率检测器(MAP)。若先验概率相同,则为最大似然检测器p(x∣H1)>p(x∣H0)。
**贝叶斯风险准则:**R=C00P(H0)P(H0∣H0)+C10P(H0)P(H1∣H0)+C01P(H1)P(H0∣H1)+C11P(H1)P(H1∣H1) 判决规则p(x∣H0)p(x∣H1)>(C01−C11)P(H1)(C10−C00)P(H0) 判别为H1。特例,若风险一致回到最小错误概率准则。
注意:最小贝叶斯风险准则 风险一致时 回到 最小错误概率准则/最大后验概率判决准则 若先验概率相同 回到最大似然判决准则
确定信号的检测
**匹配滤波器:**是最佳滤波的一种,当输入信号具有某一特殊波形时,其输出信噪比达到最大。假设H0:x[n]=w[n]H1:x[n]=s[n]+w[n] 其中s[n]已知,WGN 假设下。采用 NP 容易得到检测统计量T(x)=n=0∑N−1x[n]s[n] 可以看作匹配滤波器。y[n]=k=0∑nx[k]h[n−k]输出信噪比:η=var(y[N−1];H0)E2(y[N−1];H1)≤σ2sTs。信号功率n=0∑N−1s2[n]=ε容易得到检验统计量在两种假设下服从N(0,σ2ε),H0N(ε,σ2ε),H1检测性能PD=Q(Q−1(PFA)−σ2E)
**广义匹配滤波器:**若w∼N(0,C)得到T(x)=xTC−1s T(x)∼{N(0,sTC−1s),N(sTC−1s,sTC−1s),H0H1 PFA=Pr(T(x)>γ′;H0)=Q(sTC−1sγ′) PD=Q(Q−1(Pfa)−sTC−1s)
**一般线性模型下信号检测:**H1:x=Hθ1+w θ1未知,可以先估计再检测 θ^1=(HTC−1H)−1HTC−1x
**二元通信:**H0:x[n]=s0[n]+w[n],n=0,1,...,N−1H1:x[n]=s1[n]+w[n],n=0,1,...,N−1 我们容易得到 p(x∣Hi)=(2πσ2)N/21exp{−2σ21n=0∑N−1(x[n]−si[n])2} 我们判别Di2=∑n=0N−1(x[n]−si[n])2=x−si2最小的Hi成立。得到Ti(x)=∑n=oN−1x[n]si[n]−21εi T(x)∼⎩⎨⎧N(−21∥s1−s0∥2,σ2∥s1−s0∥2),N(21∥s1−so∥2,σ2∥s1−so∥2),H0H1 我们可以得到Pe=Q(2σ2ε(1−ρs)),ρs=(s1Ts1+s0Ts0)/2s1Ts0,ε=(s1Ts1+s0Ts0)/2在信号功率一定情况下,为Pe使最小,应尽量减小相关系数。相移键控(PSK)Pe=Q(σ2E)频移键控(FSK)Pε=Q(2σ2E)。
**多元通信:**错误概率,随信噪比σ2ε增加而减小,,随“元”M 增加而增大——因需区分更多信号。无误码数据传输的极限C=B→∞limBlog2(1+N0BP)=N0ln2P(香农定理)
随机信号的检测
估计器—相关器:H0:x=wH1:x=s+w并且 s∼N(0,Cs)w∼N(0,σ2I)可以得到T(x)=xTCs(Cs+σ2I)−1x=xTs^。其中s^=Cs(Cs+σ2I)−1x 此方法也叫维纳滤波
**线性模型:**H0:x=wH1:x=Hθ+w同样s∼N(0,Cs)w∼N(0,σ2I)现有一般线性贝叶斯模型得到θ^=CθHT(HCθHT+σ2I)−1x 然后T(x)=xTHθ^=xTs^
**一般高斯信号检测:**s∼N(μs,Cs)w∼N(0,Cw)检测统计量T′(x)=xT(Cs+Cw)−1μs+21xTCw−1Cs(Cs+Cw)−1x其中Cs=E(ssT)=E(HθθTHT)=HCθHT
复合假设检验
**UMP 一致最大势检验:**定义检测统计量与未知参数无关,未知参数可以影响检测性能但是不影响最佳检测器。单边检验可能存在 UMP,双边检验不可能存在 UMP。
**贝叶斯方法:**考虑未知参数的概率分布情况,在平均意义上求最佳p(x;H0)=∫p(x∣θ0;H0)p(θ0)dθ0p(x;H1)=∫p(x∣θ1;H1)p(θ1)dθ1,采用 NP 原则L(x)=p(x;H0)p(x;H1)>γ。采用贝叶斯方法后未知参数可以不再影响判决。
在未知参数未知的时候我们可以将未知参数假设一个范围比如A>0,得到检测器的性能。此性能是未知参数时候的上界。
广义似然比检验:LG(x)=θ0maxp(x;θ0,H0)θ1maxp(x;θ1,H1)>γ,此方法需要先求参数的 MLE 估计。然后带入 NP 规则。相比于贝叶斯检验无需先验知识并且运算简单。
**Wald 检验:**TW(x)=(θ^1−θ0)TI(θ^1)(θ^1−θ0)>γ 判别为 H1 使用条件:双边检测,弱信号,大数据量,相同 PDF。无需比较 PDF,但仍需求 MLE。
Rao 检验:TR(x)=(∂θ∂lnp(x;θ)θ=θ0)TI−1(θ0)∂θ∂lnp(x;θ)θ=θ0 使用条件:双边检测,弱信号,大数据量,相同 PDF。无需比较 PDF,无需求 MLE。注意:对线性模型,GLRT、Wald、Rao 的检验统计量是相同的。
LMP 局部最大势检验:TLMP(x)=I(θ0)∂θ∂lnp(x;θ)θ=θ0>I(θ0)(θ−θ0)lnγ=γ′大数据量时 LMP 的性能T(x)∼{N(0,1),N(I(θ0)(θ1−θ0),1),H0H1
最小错误概率检测——广义 ML 准则:最小错误概率准则 当先验相同时 等价于最大后验概率准。则imax{lnp(x;θ^i∣Hi)−21ln(det(I(θ^i)))}
欢迎来到这里!
我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。
注册 关于