全部版块 我的主页
论坛 经济学人 二区 外文文献专区
789 14
2022-05-06
英文标题:
《Exact fit of simple finite mixture models》
---
作者:
Dirk Tasche
---
最新提交年份:
2014
---
英文摘要:
  How to forecast next year\'s portfolio-wide credit default rate based on last year\'s default observations and the current score distribution? A classical approach to this problem consists of fitting a mixture of the conditional score distributions observed last year to the current score distribution. This is a special (simple) case of a finite mixture model where the mixture components are fixed and only the weights of the components are estimated. The optimum weights provide a forecast of next year\'s portfolio-wide default rate. We point out that the maximum-likelihood (ML) approach to fitting the mixture distribution not only gives an optimum but even an exact fit if we allow the mixture components to vary but keep their density ratio fix. From this observation we can conclude that the standard default rate forecast based on last year\'s conditional default rates will always be located between last year\'s portfolio-wide default rate and the ML forecast for next year. As an application example, then cost quantification is discussed. We also discuss how the mixture model based estimation methods can be used to forecast total loss. This involves the reinterpretation of an individual classification problem as a collective quantification problem.
---
中文摘要:
如何根据去年的违约观察和当前的分数分布预测明年的投资组合范围内的信用违约率?解决这个问题的经典方法是将去年观察到的条件分数分布与当前分数分布进行混合拟合。这是有限混合模型的一个特殊(简单)情况,其中混合组分是固定的,只估计组分的权重。最佳权重可以预测明年整个投资组合的违约率。我们指出,如果我们允许混合物成分变化,但保持其密度比不变,那么拟合混合物分布的最大似然(ML)方法不仅给出了最佳拟合,甚至给出了精确拟合。根据这一观察,我们可以得出结论,基于去年条件违约率的标准违约率预测将始终位于去年投资组合范围内的违约率和明年的ML预测之间。作为一个应用实例,讨论了成本量化。我们还讨论了如何使用基于混合模型的估计方法来预测总损失。这涉及将单个分类问题重新解释为集体量化问题。
---
分类信息:

一级分类:Statistics        统计学
二级分类:Machine Learning        机器学习
分类描述:Covers machine learning papers (supervised, unsupervised, semi-supervised learning, graphical models, reinforcement learning, bandits, high dimensional inference, etc.) with a statistical or theoretical grounding
覆盖机器学习论文(监督,无监督,半监督学习,图形模型,强化学习,强盗,高维推理等)与统计或理论基础
--
一级分类:Quantitative Finance        数量金融学
二级分类:Risk Management        风险管理
分类描述:Measurement and management of financial risks in trading, banking, insurance, corporate and other applications
衡量和管理贸易、银行、保险、企业和其他应用中的金融风险
--

---
PDF下载:
-->
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2022-5-6 08:40:27
这意味着hi=gi,i=1,k、 utRemark 1。如果(1)左侧的KL距离已明确,且所有(p,…,pk)的KL距离均已确定-1) ∈ Sk-然后在定理1b)的假设下,有一个*, . . . , P*K-1) ∈ Sk-1使g和pki的KL距离=1p*这是最低限度的。此外,根据定理1a),密度gisuch等于g的KL距离,pki=1p*IGIS为零——这是本说明标题中提到的简单混合物模型的确切特性。utRemark 2。a) 定理1b)为(6)的解的唯一性提供了一个简单的条件。在k=2的情况下,该条件简化了toP[X=1]<1。(8a)对于k>2,在Sk中不存在解的类似简单条件-1.然而,如[14]所述(例4.3.1),在k=2:E[X]>1和E的情况下,存在解inS=(0,1)到(6)的简单必要和有效条件十、-1.> 1.(8b)b)假设我们在定理1 a)的设置中,k>2,所有Xi>0。因此有u-密度g,gk,(p,…,pk)-1) ∈ Sk-1,pk=1-主键-1i=1i表示g=Pki=1pi,Xi=gigk,i=1,k、 Letg=Pkj=2pjgj1-p、 然后我们得到了g的另一个分解,即g=pg+(1)- p) g和p∈ (0, 1). 定理1b)的证明表明,当X=gg时,这意味着0=Zg(X- 1) 1+p(X)- 1) du。(9) a)有一个解决方案p∈ (0,1)到(9)当且仅当E[X]>1和[十)-1.> 1.c)如a)所述,应用定理1的一个有趣问题是如何确定Sk中(6)是否存在解-1对于k>2。[9]和[11]中建议的迭代将正确地收敛到Sk边界上的一个点-1如果内部没有解(文献[9]中的定理2])。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 08:40:30
但收敛速度可能非常慢,以至于可能无法确定极限的一个分量是零(因此解在边界上)还是真的很小但为正。用于确定由(3)定义的F最大值的直接牛顿-拉夫森方法可能收敛更快,但对于接近或位于Sk边界的解也可能变得不稳定-1.然而,在k>2的情况下,在b)中进行的观察表明,如果初始值(p(0),p(0)k-1) 当p(0)k=1时-主键-1i=1p(0)与(6)的解(如果有的话)非常接近:假设对于某些n≥ 0近似解(q,…,qk)=(p(n)。,p(n)k)已被发现。简单有限混合物模型7的精确系数——对于i=1,k通过求解(9)来尝试依次更新(q,…,qk),其中组件i在b)中扮演组件1的角色,p=qias以及g=Pkj=1,j6=iqjgj1-气。如果i=1,k当停止时,更新后的qito处于(0,1)的充分必要条件不满足——因此可能无法解决Sk中的(6)-1.否则,尽可能使用(9)的解决方案更新qi,结果是qi、new和setqj,new=1- 齐新1- qiqj,j 6=i.–在步骤k集合(p(n+1)之后,p(n+1)k)=(q1,新的,…,qk,新的),如果算法未因违反(6)的可分辨性条件而停止当合适的距离测量值介于成功(p(n),…)之间时,终止计算。,p(n)k)非常小。ut3量化问题的应用有限混合模型在机器学习环境中自然出现。具体而言,在本说明中,我们考虑以下背景:假设2o(Ohm, H) 是一个可测量的空间。为了一些k≥ 2,A,Ak Ohm 是一部分Ohm. A是由H和Ai生成的σ场,ieA=σ(H∪ {A,…,Ak})=k[i=1(Ai∩ 嗨)H。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 08:40:33
,香港∈ H.o Pis是一个关于(Ohm, A) 当P[Ai]>0表示i=1时,k、 Pis是一个关于(Ohm, H) 。写下关于Pi的期望值有一个衡量标准(Ohm, H) 和μ-f,fk-1.≥ 0,fk>0使得p[H | Ai]=ZHfidu,i=1,k、 H∈ H.空间(Ohm, A、 P)描述了分类师的培训集。在训练集中,对于每个示例,特征(用H表示)和类(用Ai之一描述)都是已知的。请注意,fk>0意味着Ak/∈ H(Ohm, H、 P)描述了部署分类器的测试集。在测试集上,只有示例的特征是已知的。8 Dirk-Tasche用数学术语来说,量化可以被描述为基于训练集上观察到的属性扩展Ponto A的任务,即P。基本上,这意味着在测试数据集上估计先验类别概率(或普遍性)P[Ai]。在本文中,假设PA 6=P答:在机器学习文献中,这种情况被称为数据集移位(参见[8]及其参考文献)。具体而言,我们考虑以下两种数据集转移类型(根据[8]):o协变量转移。PH 6=P但是P[Ai | H]=P[Ai | H]对于i=1,k、 在实践中,这意味着P[Ai]6=P[Ai]对于大多数人(如果不是所有人的话)先验概率转移。对于至少一个i,P[Ai]6=P[Ai],但对于i=1,…,P[H | Ai]=P[H | Ai],k、 H∈ 这意味着PH 6=PH ifP[·| A]。,P[·| Ak]是线性独立的。在实践中,在变量和先验概率转移的情况下,对于某些i,很可能有P[Ai]6=P[Ai]。因此,P[Ai]估计意义上的量化对于协变量和先验概率变化都很重要。在协变量转移假设下,给出了P[Ai]的自然估计量P[Ai]=EP[Ai | H], i=1,K
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 08:40:36
(10) 在先验概率转移下,选择合适的P[Ai]估计量并不明显。以下结果将[1]中的比例概率平均法推广到多类情况。它允许从(10)给出的协变量移位估计中导出先验类概率的先验概率移位估计。提议1。在假设2下,假设有q≥ 0, . . .,qk≥ 0,pki=1qi=1,这样Pc可以表示为一个简单的实体,如下所示:P[H]=kXi=1qiP[H | Ai],H∈ H.(11a)那么它就是这样的EP[A | H]...EP[Ak | H]= MQqk,, (11b)其中矩阵M=(mij)i,j=1,。。。,kis由mij=E给出P[Ai | H]| Aj]= EP[Ai | H]P[Aj | H]/ P[Aj]。(11c)简单有限混合物模型的精确证明。立即从(11a)和条件期望的定义。UT出于实际目的,第一行(11c)的米津表示法更有用,因为大多数情况下,P[Aj|H]的准确估计值都不可用。因此,(11c)第一行和第二行的期望值之间可能存在非零差异。然而,与第二行相比,对于(11c)第一行rhs的推导,没有使用条件期望的特定属性。推论1。在命题1的设置中,假设k=2。定义=varP[A | H]P[A](1)- P[A])∈ [0,1],用vart表示P下的方差。然后我们有P[A | H]= P[A](1)- R) +qR。(12) 证据。我们从向量方程(11b)的第一个元素开始,应用一些代数运算:EP[A | H]=qP[A]EP[A | H]+1.-q1-P[A]EP[A|H](1)- P[A | H])=P[A](1)- P[A])-1.问题(1)- P[A])EP[A | H]+ P[A](1)- q)P[A]- EP[A | H]=P[A](1)- P[A])-1.QEP[A | H]- P[A]+ P[A]P[A]- EP[A | H].来自P[A]- EP[A | H]= P[A](1)- P[A])- 变量P[A | H]现在结果如下。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-6 08:40:39
根据推论1,对于二元分类问题,如果数据集移位不是协变量移位而是先验概率移位,则协变量移位估计器(10)低估了类别概率的变化。有关分类和计数估计器的类似结果,请参见[4]第2.1节。然而,根据(12),协变量移位估计器和真实先验概率之间的差异越小,分类的判别力(由广义R衡量)就越大。此外,(12)和(11b)都为q,…,提供了封闭形式的解决方案。,在先验概率移位假设下,将协变量移位转化为正确估计的qk。在下文中,用这种方法定义的估计器被称为标度概率平均估计器。10 Dirk-Tasche关于二元分类情况下协变量移位和标度概率平均估计之间关系的推论1可以推广到协变量移位和KL距离估计之间的关系。推论2。在假设2下,考虑k=2的情况。设X=f,假设(8b)对E=E成立,如解p∈ 存在(6)中的(0,1)。还有一些α∈ [0,1]这样P[A | H]= (1 - α) P[A]+αP.证明。假设g>0是pw的密度,关于某个测度νon(Ohm, H) 。根据假设2,ν不需要等于u,如果没有其他候选项,我们可以选择ν=Pand g=1。根据定理1 a),则有ν-密度g≥ 0,g>0,使得gg=x和g=pg+(1- p) g.我们定义了一种新的概率度量(Ohm, A) 通过设置eP[Ai]=P[Ai],i=1,2,eP[H|Ai]=ZHgidν,H∈ H、 i=1,2。通过构造P[H]=peP[H | A]+(1- p) eP[H | A],H∈ H.因此,我们可以将推论1应用于obtainEeP[A | H]= P[A](1)-呃,在哪里∈ [0,1]的定义与Rwith的定义类似,Rwith预先替换了byeP。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

点击查看更多内容…
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群