全部版块 我的主页
论坛 经济学人 二区 外文文献专区
1051 7
2022-04-19
摘要翻译:
跟随经验福利最大化文献的脚步,本文希望通过一个最优政策分配问题的实际说明来强调政策制定者的观点。更具体地说,通过聚焦于基于阈值的政策类别,我们首先建立了政策制定者选择问题的理论基础,然后通过使用流行的LaLonde(1986)培训计划数据集的实证说明为该问题提供了一个实用的解决方案。本文提出了一种简单实用、易于用标准统计软件编程的最优解实现协议。
---
英文标题:
《Optimal Policy Learning: From Theory to Practice》
---
作者:
Giovanni Cerulli
---
最新提交年份:
2020
---
分类信息:

一级分类:Economics        经济学
二级分类:Econometrics        计量经济学
分类描述:Econometric Theory, Micro-Econometrics, Macro-Econometrics, Empirical Content of Economic Relations discovered via New Methods, Methodological Aspects of the Application of Statistical Inference to Economic Data.
计量经济学理论,微观计量经济学,宏观计量经济学,通过新方法发现的经济关系的实证内容,统计推论应用于经济数据的方法论方面。
--

---
英文摘要:
  Following in the footsteps of the literature on empirical welfare maximization, this paper wants to contribute by stressing the policymaker perspective via a practical illustration of an optimal policy assignment problem. More specifically, by focusing on the class of threshold-based policies, we first set up the theoretical underpinnings of the policymaker selection problem, to then offer a practical solution to this problem via an empirical illustration using the popular LaLonde (1986) training program dataset. The paper proposes an implementation protocol for the optimal solution that is straightforward to apply and easy to program with standard statistical software.
---
PDF下载:
-->
English_Paper.pdf
大小:(270.31 KB)

 马上下载

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2022-4-19 19:31:17
最优政策学习:从理论到实践giovanni cerullicnr-ircresResearch Institute on Su stainable Economic Growth the National Research Council of Italygiovanni.cerulli@ircres.cnr.2020年11月11日摘要紧随经验福利最大化文献的脚步,本文希望通过强调政策制定者的观点来贡献一个最优政策分配问题的实际说明。另外,通过对基于阈值的政策类别的研究,我们建立了政策制定者选择问题的理论基础,并通过使用流行的LaLonde(1986)培训计划数据集的实证说明,为这一问题提供了一个切实可行的解决方案。关键字:政策学习、最优处理、方案评估、基于阈值的分配规则分类:C53、C61、C631介绍基于证据的方案评估正日益成为决策者调整社会经济政策的重要工具(Cerulli,201 5)。通常,决策者在国家、地区或地方层面上运行多轮类似的政策。随着经常性政策的实施,他们可以收集过去方案运行的大量证据,并越来越多地支持基于过去经验的学习过程。方案评估包括事前、事中和事后三个维度。本文从事前评估中抽象出来,重点讨论决策马克如何基于事前评估和事后评估的结果来改进政策的事前评估。与最近的文献一致,我称之为政策学习(在嘿和打赌,2019年)。这个职业是如何发生的?更具体的是,在本节中,我们所说的事前程序评估是什么意思?回答这些问题需要更深入地理解政策制定者行动背后的因果关系。为了理解这个观点,考虑一个政策制定者管理一项政策。出于道德或政策约束的原因,政策制定者几乎不想(或不能)随意地获得好处。她通常采取旨在优化目标函数的选择策略,通常是通过尽可能增加整体政策来实现。问题的关键是:哪一个e-ect?众所周知,政策干预的总e-ect(我们称之为γ)可以分解为两个子e-ect:直接e-ect(我们称之为α)和间接e-ect(我们称之为β)。直接的是政策的e-ect“就好像”决策者在rando M选择了有利和非有利的两种情况。间接ECT是由于决策者的选择策略(即所谓的策略分配规则)所操作的选择过程而导致的to tal ECT的一部分。在这种情况下,我们有:γ(S)=α+β(S)(1),其中间接E-ect显然是决策者操作的选择过程的函数。政策分配规则是指政策的总福利,因而在一定的可行规则范围内寻求“最优”政策规则(Manski,2004)。事后计划评估技术,无论是实验性的(随机对照试验)还是准实验性的(再平衡程序),通常都是通过假设β是选择过程中产生的偏差来一致地估计α。这是计量经济学的观点,但与政策制定者的观点不一致。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-4-19 19:31:24
在给定预算、伦理或环境约束的情况下,政策制定者实际上主要感兴趣的是增加政策的总收益,从而找出使这一收益最大化的选择规则(Dehejia,2005)。最近,无论是在统计学、生物统计学还是计量经济学方面,政策制定者都在最优政策分配方面取得了重要的理论进展。本文在文献研究的基础上,通过一个最优政策分配问题(或等效地,一个“经验福利马西化”问题)的实际实现,强调政策经济学的观点。更具体地说,通过集中讨论基于阈值的政策类别,我们建立了政策制定者选择问题的理论基础,然后通过使用流行的LaLo nde(1986)t rainingprogram数据集的经验说明,为该问题提供了一个实用的解决方案。此外,本文还提出了一个最优解的实现协议,该协议易于用标准统计软件编程。第二节给出了最优约束tr eat分配的理论基础。第三节提出了一个执行最优约束治疗分配的协议。第4节使用流行的LaLonde(1986)工作培训数据说明了一个实证应用,并讨论了结果。第5节总结了本文的结论。2最优constr处理分配let X是个体的特征向量,Y是感兴趣的结果,T={0,1}是二元处理。一个po licy赋值规则G是一个映射X到T的函数,它规定了哪些个体被处理或不被处理:G:X→TSpec I.本文参考了Manski(2004)和Kitagawa and Tetenov(2012)的计量经济论文,他们扩展了fo rmer。在他的开创性论文中,Manski(2004)提出了实验结果的概率分布,以及将个体分配到产生最佳实验结果的治疗中的共同治疗规则。“共同经验成功”规则考虑观察到的协变量空间的子集。作者认为,与这些规则相关的福利遗憾表明,它以至少0.5的速度收敛到零。Kitagawa和Tetenov(2012)将Manski方法推广到更广泛的规则类,包括基于Thre-Shold的规则类,并证明了这些更广泛的规则类具有相似的收敛速度。其他对文献的贡献有:德和家,2005年;平野安德波特,2009年;Athey和Wag er,2019年;Bhattacharya和Dupas,2012年;Zhao等人,2012年;Zhang Etal.,2012.结合本文的应用,我开发了一个用于单变量福利优化的Stata16程序和一个二元经验福利优化阈值规则。所有代码可根据要求提供。将策略条件平均处理E_ect定义为:τ(X)=E(YX)-E(YX),其中Yand y代表策略的两个潜在结果,ex[τ(X)]=τ为平均处理E_ect。政策的实际总e-ect(或福利)W为:W=nxi=1ti·τ(Xi),政策的无约束最优总e-ect(或无约束最大福利)为:W*=nxi=1t*i·τ(Xi),其中:t*i=1[τ(Xi)>0]是最优的无约束政策分配。(无约束)最大可实现福利与政策实际运行的相关福利之间的关系称为遗憾,它被定义为:遗憾=W*-W,遗憾通常是正的,因为决策者在给定其约束和可用信息的情况下无法挑选出可能的最佳待遇分配。在随机对照试验(RCT)中尤其如此,因为在这种情况下,治疗故意取消了任何选择目标。表1列出了前面设置的三个治疗单位和三个未治疗单位的说明性例子。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-4-19 19:31:30
在表的第三列中报告了条件平均处理e-ectτ(X),而在第四列的最后一行显示了实际策略welfa r e在t中的数值例子等于10。根据我们的认识,最优(无约束)分配只能选择那些在τ(X)为正的单位,在这种情况下是单位1、3、4和6。这是最优选择赋值t*,最后一列的最后一行表明决策者可达到的平均福利等于26。因此,遗憾等于26-10=16。由于资格、预算、道德或机构限制,政策制定者通常无法执行最优的无约束政策分配,因此不得不依赖于根据其(某些)特征选择被处理单位的有约束分配T\'。因此获得的福利,w′,可能低于也可能不低于w*。然而,人们可以问,政策制定者是否有可能产生尽可能大的受限制福利。由于现有的处理分配规则非常庞大,这就限制了对某些类型的策略的关注,其中最优分配(optimalassignment to Pression,Optimized constrained policy assignment)(Optimized constrained policy assignment)。虽然有几类策略,但决策者通常很少使用其中的几类,如“基于阈值的”、“线性组合”或“已定义的深度决策树”(Kitagawa and Tetenov,2018)。基于阈值的分配策略在策略程序中具有很强的可管理性和易解释性。对于这类政策,政策制定者通过选择区分已处理和未处理单位的特定值(阈值)来选择一个或多个非常重要的变量(例如,雇员人数、银行资产、个人年龄等)。为了澄清,假设只有一个选择变量x,阈值为c。赋值处理显然是c:ti(c)=t*i·1[x>=c]的函数,与福利相关:W(c)=nxi=1ti(c)·τ(Xi)我们将阈值c的最优选择定义为在c:c*=argmaxc[W(c)]上使W(c)=argmaxc[W(c)]最大化的最优选择,如果c*存在,则最优的约束福利等于W(c*)。对两个或三个选择变量的情况进行了推广。假设有两个选择变量x和z,有两个相应的阈值cx和cz。在这种情况下,对治疗的分配是阈值的函数,其形式为:ti(cx,cz)=t*i·1[x>=cx]·1[z>=cz]因此,先前的福利,W(c)可以在c上最大化,作为阈值向量,每个选择变量一个阈值。在二维中,以前的赋值规则被称为象限赋值,因为它选择通过设置阈值生成的f个象限中的右上象限。在寻求最优阈值时,会出现一些问题。有可能在最佳阈值下,一次治疗的份额可能太小,或者可能太大。在这种情况下,基于太小(或太大)的处理数量来运行策略是没有意义的。然而,为了解决这个问题,决策者可以考虑预算限制(例如,如果有一定数量的资金,她将能够治疗的最大单位数),或者预先设定一个目标治疗数量(例如,治疗份额在整个治疗人口的30%至40%之间)。当一个或多个选择变量对福利的影响是单调的时,由于选择变量对福利的影响存在所谓的角度解时,就会出现一个相关的问题。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-4-19 19:31:37
为了给出这种情况的一个实际例子,把个人的教育程度视为选择的变量。在许多政策背景下,政策的福利随着教育水平的提高而单调增加。这一事件将导致只选择具有最高教育水平的人在样本中。然而,这可能是不可行的,原因有二:(一)政策的目的是攻击教育程度低的人;(ii)由于受教育程度高的人士一般较少,所以接受治疗的单位数目会变得很少。该问题的解决方案类似于上面列出的解决方案,即政策制定者可以再次引入阈值限制和/或预先确定的治疗份额范围,并根据这些限制运行政策。同样,这个过程可能会导致损失福利,但会保留最终运行策略的可能性。ID Tτ(X)T·τ(X)T:/T'·τ(X)1 1 9 9 1 92 1-4-4 0 03 1 5 5 1 54 0 6 0 1 65 0-2 0 0 06 0 6 0 1 610 26表1:n个最优策略分配规则的示例。该策略的r e gret等于16=26-10.τ(X)τ-TM>-10-5-05分布τ(X)τ-TM>-2-2-4-6分布图1:τ(X)和τ(X)的分布。方案:国家支持工作示范(NSWD)。资料:LaLonde(1986)。Targ et变量:1978年实际收入。估计技术:回归-调整(具有可观察到的异质性)。3 empi福利最大化protoco为执行基于阈值的最优策略分配决策提供了一种经验策略,我们建议以下步骤组成的程序。基于阈值的最优策略分配。最好从RCT或由信息三重(Y,X,t)组成的观察研究中获得da t a,用于方案中涉及的每个单元。运行一个具有可观察到的异质性的准实验方法,估计τ(X),并计算政策的实际总福利W.3。确定最优无约束政策T*,计算W*,即该政策所能达到的最大tal福利,并将遗憾估计为W*-W.4。考虑一个基于给定的选择变量集x和相关阈值c的约束选择规则T(x,c),并将最大约束福利定义为W(x,c)。建立K个可能值f或c∈{c,...,cK}的贪婪,计算阈值cK*的最优向量和相应的最大福利W(x,cK*)。在下一节的应用中,我们将展示如何在一个真实的策略数据上实现这个过程。4应用我们考虑了LaLonde(1986)使用的National Supported WorkDavidation(NSWD)中流行的实验数据集。众所周知,这项研究观察了1976年实施的一项工作培训计划(治疗)对该计划完成两年后个人实际收入的E----有效性。它包括一组人口统计数据,个人层面的社会和经济变量如年龄,种族,教育程度,以前的就业情况,和RealCurrence--以及待遇指标,1978年的实际收入,这是我们的目标变量。我们使用回归-调整(RA)方法和模型的具体规定来估计该计划的平均治疗水平,包括作为控制变量的:1974年和1975年的实际收入,ag e,ag e平方,一个没有恋爱的指标,一个已婚的指标,一个bla ck的指标,一个西班牙裔的指标。由于他的计划的治疗分配是RA ndo Mised,平均治疗水平(ATE)一致地由治疗对照的DIM估计,发现等于1.79万美元。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-4-19 19:31:43
为了比较起见,1974年的实际收入0.5 1 1.5 2最优阈值=.96最优平均福利=2.65治疗单位数=44320中的108个30 40 50 60年龄最优阈值=42最优平均福利=2.85治疗单位数=4430中的16个5 10 15教育最优阈值=16最优平均福利=4.24治疗单位数=4443中的0图2:单变量情况下政策最优选择阈值的计算。项目:国家支持工作示范(NSWD)。资料:LaLonde(1986)。目标变量:1978年的RealEcurrence。单变量选择变量:1974年的收入、年龄和教育程度。然而,我们也通过回归调整来估计ATE,获得相似值1.76,仍然在1%上有意义。R A方法还允许我们在协变量t es(即τ(X)和τ(X)以及它们的分布如图1所示)的条件下估计平均值。现在,我们通过在单变量中实现先前的经验welfa R e最大化协议,然后在双变量选择设置中实现。单变量设置只考虑一个选择变量。为了比较,我们分别对19-74年实际收入、年龄和教育程度这四个选择变量运行经验福利最大化协议。对于每一个可选择的选择,我们计算出最优阈值,即使决策者的平均福利最大化的选择准则。图2说明了结果。这里报告的图表表明,对于1974年的实际收入,最优阈值为0.96,相应的最大平均福利等于2.65。结果表明,福利最大化阈值出现在42岁,相应的平均福利为2.85。这意味着,如果政策制定者选择了0 5 10 15 20 25 1975年的实际收入平均福利=3.995被处理单位的份额=1%“年龄”的最优阈值=30.5“1975年实际收入”的最优阈值=10.9图3:二元情形下政策最优决策边界的计算。方案:国家支持工作示范(NSWD)。资料:LaLonde(1986)。目标变量:1978年的RealEcurrence。双变量选择变量:1975年的实际收入和年龄。作为42岁或以上的福利者,她将能够获得每年每福利1.09千美元的福利增长,这是纯RCT e ect 1.79和选择超龄获得的福利增长之间的差额。教育的结果特别有趣,因为在这种情况下,我们有一个角度,因为mo Notinity。这意味着这个项目的经验福利最大化将导致选择有可能接受教育的人(大约15年)。这显然是不可行的,因为在这种情况下没有人会被选中。如上所述,这不过是一个次要问题,因为我们可以通过要求某种“最低”的统一待遇份额来调整我们的经验福利最大化,从而使我们的分析最终可行。当然,增加这一限制将导致所获得的福利水平的降低(在此特定情况下,这一水平相当高,等于4.24)。由于福利的规模是巨大的,我们期望限制治疗单位的最小份额可以获得比随机分配治疗所获得的福利更大的福利。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

点击查看更多内容…
相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群