全部版块 我的主页
论坛 经济学人 二区 外文文献专区
2022-5-8 10:30:49
将其局限于更广泛的连续或可区分的链接函数也是很自然的。一般来说,我们认为本文中提出的启发复杂性概念定义4最适合研究启发性质的困难:将f视为潜在的降维链接函数,我们的定义捕捉到了点估计或经验风险最小化所需的统计特性的最小维数选择复杂性,然后是f的简单一次性应用。为了进一步证明这一说法的合理性,我们观察到,我们的定义比大多数其他常见定义产生的复杂度要低一些,而对某些自然属性产生的复杂度则要低得多。例如,考虑Fissler和Ziegel(2016)对Y=R时的平方平均值Γ(p)=Ep[Y]的第一分量链接定义。正如我们在备注2中所看到的,该属性具有elicClin(Γ)=1,但由于无法直接导出,因此在Fissler–Ziegel定义下具有复杂性2。例如,通过由L(r,Y)=(r)导出的属性^Γ(p)=(Ep[Y],Ep[Y])来实现这种复杂性- y) +1{r6=r}。此外,根据第4条,在不进一步限制损失、关联或财产类别的情况下,基本上所有财产的定义都具有复杂性2。最后,在Lambert等人(2008)的组件式Elicitable C下,性质Γ(p)=maxy∈Yp({y})表示有限y的复杂性Elicc(Γ)=y|- 1,而我们在§E·3中展示了elicIfin(Γ)=2,其中,我定义了允许有限属性的识别能力的轻微概括,即Γ:P→ R代表一个有限集R.E·2。诱导与诱导复杂性在备注2中,我们给出了平方平均数的例子,以说明不可诱导属性仍然可以具有诱导复杂性1。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-8 10:30:52
这里我们讨论的是相反的情况:启发性并不一定意味着启发的复杂性1。事实上,最近关于模式和模式间隔的启发复杂性的研究结果给出了一个自然的例子,表明一个属性显然是可启发的,但其关于可识别属性的启发复杂性是有限的。虽然当Y是一个有限集时,分布模式是可引出的,例如通过0-1损失,但最近的研究表明,对于分布P的丰富选择,该模式在Y=R时是不可引出的(Heinrich,2013)。在这种实值设置中,模式被定义为密度值的argmax,例如连续密度。为了避免这种不可能性,在实践中,人们可以尝试如下“近似”模式。给定一个参数β,我们将模态区间的中点定义为属性miβ(p)=argmaxa∈Rp([a]- β、 a+β),即具有最大概率质量的宽度2β区间的中点。通过损失L(r,y)=1{r,模态间隔是可以直接得出的- y |>β}。有趣的是,最近的研究表明,模式和模式间隔对于I都具有有限的启发复杂性,尽管后者是可以直接启发的(Dearborn&Frongillo,2019)。换句话说,虽然miβ是可以直接引出的,但我们有elicI(mode)=elicI(miβ)=∞.我们还可以将宽度β的模态质量定义为模态区间的质量γβ(p)=maxa∈Rp([a]- β、 a+β),满足γβ(p)=1- L(p);因此,对定理4(允许非凸P)的修改(参见§E·5)将得出elicI(γβ)=∞ 也这些下界可能与表明实值属性在且仅在其可识别时才可导出的结果相矛盾(Lambert,2018;Steinwart等人,2014),但这些结果要求所讨论的属性是连续的,而miβ不是。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-8 10:30:56
直觉上,这些下限表明,在实践中很难优化诱导miβ的lossL。更一般地说,即使在直接启发的环境中,对所讨论的财产和损失的一些限制也是合理的。E·3。有限Y的模态和模态质量在有限Y的情况下,P取为概率单纯形,Y上的所有分布,我们确定模态质量γ(P)=maxy∈Yp({y})是分配给任何结果的最高概率。换句话说,模态质量是分配给p模态的概率,由模态(p)=argmaxy定义∈Yp({y}),我们注意到它通常是集值的。p的模式可以通过0-1 lossL(r,y)=1{r6=y}导出。这里1表示指示器功能。然而,模态质量是不可引出的,正如其非凸水平集所证明的,因此我们转向其引出复杂性。模态质量的形式忽略了定理3中的等式(11),事实上-γ是Xa(y)上的最小期望值=-1{y=a}。更直接地说,我们可以看到γ是0-1损失的Bayes风险的1减:γ(p)=maxr∈YEp1{r=y}=1- 明尔∈YEp1{r6=y}=1- L(p)。不幸的是,我们无法立即应用推论7,因为模式无法识别。事实上,非恒定不动产是可识别的;参见例如Fissler&Ziegel(2019b,引理2.4)。32 R.Frongillo和I.A.KashTo在遵循我们框架精神的同时,绕过了这一技术障碍,我们将I类属性替换为I类属性,这些属性在可能对某些可诱导的有限属性进行条件化后可以识别。非恒定有限的可引出属性必然具有集值性,但除非它们是冗余的,否则仅在每个水平集Γr的边界子集上(Lambert&Shoham,2009)。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-8 10:30:59
形式上,让我们将Ikto定义为属性类Γ=(Γ,Γ),其中Γ:P→ 2R可通过| R |<∞, Γ∈ Ik-1(Γr)代表所有r∈ R、 式中ΓR={p∈ P:Γ(P)=r}是Γ的水平集。对于k=1的情况,我们认为Ito是常数性质的集合。也就是说,^Γ是一个可引出的有限属性和一个向量值或实值属性的产物,该属性可根据该有限属性进行识别。然后,我们采用INK=Ik∪ Ik和I fin=滑雪场。通过取Γ=Γ,任何可引出的有限属性Γ都微不足道。有了这种形式主义,我们看到Γ=(模式,γ)∈ I fin:如上所述,模式(·)是确定的、可引出的,而且对于所有人来说∈ 函数Va(R,Y)=1{Y=a}- r识别γ取决于∈ 模式(·),即当限制为模式a的分布时。定理3现在适用于给出elicIfin(γ)≤ 2.事实上,对于富含P的植物,由于γ不是一种固定的性质,因此elicIfin(γ)=2。如§E·1所述,这种低复杂性与Lambert等人(2008)的成分可诱导C形成了有趣的对比,其中elicC(γ)=Y |- 1.最大可能的复杂性。E·4。说明联合诱导能力和条件诱导能力之间的差异图。2:对结果Y={1,2,3,4}上两个属性的水平集的描述,一个是可诱导的,另一个不是,至少不是通过两次可微分损失函数。左图:所描述的属性是Γ(p)=(p,p+pp),这是Frongillo&Kash(2015)的一个例子,该例子表明,任何两次可微分损失函数都无法得出。右图:将γ(p)隐式定义为(r)p+cos(r)p+p=r方程的解r。可以检查损失L(r,y)=6r+4cos(r)1{y=1}- 3 sin(r)1{y=2}- 12r1{y=3}诱发γ。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-8 10:31:03
所描述的性质是Γ=(L,γ),这可以由定理3导出。有趣的是,这两个属性都是有条件可导出的,条件是Γ(p)=p=Ep[1{Y=3}],如平面所示:平面的高度,例如中间点(p,0,0)可以作为预期值导出,条件是在这个平面上,属性都是线性的,因此期望值的链接也是可导出的。图2给出了两个属性的示例,这两个属性都是有条件可导出的,但一个是合理的,而另一个不是。它说明了刻画所有可引出向量值属性的微妙之处,这可能是本文献中最基本的开放性问题。事实上,在定理3之前,即使是向量值属性的非平凡例子,也不只是实值向量、统计属性的引用复杂性、可导出属性或此类属性向量的链接。可能是一些关键的洞见在于图2中看似相似的属性之间的差异,其中一个是可引出的,另一个不是。关于这一普遍特征的一个有趣的问题是:是否存在不具有至少一个可引出组件的属性链接的可引出属性?由于Γ(Y)=(E[Y]+Var[Y],E[Y]等例子,如果不考虑forlink函数,这个问题很简单- Var[Y]),我们取一个合理的属性(E[Y],Var[Y]),并应用可逆链接来破坏每个成分的可引出性。E·5。非凸P的推广本文假设概率测度集P是凸的。这个假设主要是为了便于阐述;在这里,我们简要地讨论哪些结果可以扩展到非凸P。首先,我们的启发复杂度上界适用于任何相关预期的类P,例如。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-8 10:31:06
在损失中,是有限的,特别是不要求是凸的。我们的下限更微妙。引理8证明了Bayes风险具有严格的凹性,它确实依赖于P是凸的。尽管如此,这种限制并非绝对必要;正如我们在§D·1中所讨论的,对于非凸P,表8中的不等式只适用于任何λ∈ (0,1)使得λp+(1- λ) p∈ 因此,我们可以小心地将下界扩展到非凸P,当我们仍然可以保证一个形式的lemma 1和支持推论7的技术引理时。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群