全部版块 我的主页
论坛 经济学人 二区 外文文献专区
2022-4-26 11:31:21
2015年第21届ACM SIGKDD知识发现和数据挖掘国际会议记录,第5-6页。[2] 阿西。机器学习对经济学的影响,第507-547页。芝加哥大学出版社,2018年1月。[3] S.Athey和G.W.Imbens。经济学家应该了解的机器学习方法。《经济学年鉴》,11(1):685–72522019年。[4] S.Athey,J.Tibshirani,S.Wager等.广义随机森林。《统计年鉴》,47(2):1148-1178209。[5] M.A.贝恩和L.朱塞特。气候变化和移民文献的荟萃分析。CESifo工作纸系列7417,CESifo集团慕尼黑,2018年。[6] 证据。《塞西福经济研究》,63(4):353–385,2017年。[7] 来自多层次分析的见解。CESifo工作文件系列8064,CESifo集团慕尼黑,2020年。[8] R·布莱克、N·W·阿内尔、W·N·阿德格、D·托马斯和A·格迪斯。极端事件后的移民、静止和流离失所后果。《环境科学与政策》,2013年第27期,第32-43页。[9] Surv。,第49(2)条,2016年8月。ISSN 0360-0300。[10] 布莱曼。随机森林。机器学习,45(1):5-32,2001年10月。ISSN 0885-6125。[11] L.布雷曼、J.弗里德曼、C.斯通和R.奥尔森。分类和回归树。沃兹沃斯和布鲁克斯-科尔统计概率系列。泰勒和弗朗西斯,1984年。ISBN 9780412048418。[12] 卡塔尼奥和佩里。迁移对温度升高的反应。《发展经济学杂志》,122:127–146,2016年。[13] 还有B.Schraven。气候变化时代的人类迁徙。《环境经济学与政策评论》,第13(2)期:189-206页,2019年。[14] T.Chen和C.Guestrin。Xgboost:一个可扩展的树推进系统。在B. Krishnapuram,M. Shah,A.J.知识发现和数据挖掘会议,旧金山,CA,美国,8月13日至17日,2016,PaGES785 - 794。ACM,2016年。[15] M·戴尔、B·F·琼斯和B·A·奥尔肯。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-4-26 11:31:27
我们从天气中学到了什么?新气候经济文献。《经济文献杂志》,52(3):740-982014。[16] Y.K.贾巴。搬家动机和意图的性别差异:埃塞俄比亚和南非比较。属,59(2):93-1112003。[17] L.段、W.N.街、Y.Liu、S.Xu和B.Wu。为二进制数据选择正确的相关性度量。ACMTransactions on Knowledge Discovery from Data(TKDD),9(2):2014年1月至28日。[18]2014.[19] T.福塞特。roc分析简介。模式识别字母,27(8):861-8742006。[20] 2018年1月。预印本——2020年12月8日[21]盖洛普。2015年全球研究方法和代码手册。[22]I.哈里斯、T.J.奥斯本、P.琼斯和D.李斯特。CRU TS月度高分辨率网格多元气候数据集第4版。科学数据,7(1):1-18,2020年。[23]T.黑斯蒂、R.蒂布什拉尼和J.H.弗里德曼。统计学习的要素:数据挖掘、推理和预测,第二版。统计学中的斯普林格系列。斯普林格,2009年。ISBN 9780387848570。[24]A.梅达。国际移民:双边流动决定因素的面板数据分析。《人民经济》杂志,23:1249-12742010。[25]D.麦克法登。定性选择行为的条件logit分析。P.Zarembka,《前沿非经济计量学》编辑,第105-142页。学术出版社纽约,纽约,纽约,美国,1973年。[26]K.米洛克。移民与环境。《资源经济学年鉴》,第35-60页,2015年。[27]S.Mullainathan和J.Spiess。机器学习:一种应用计量经济学方法。《经济展望杂志》,31(2):87–106,2017年5月。[28]F.教务长和T.福塞特。商业数据科学:你需要了解的关于数据挖掘和数据分析思维的知识。O\'Reilly Media,Inc.,2013年。[29]J·R·昆兰。决策树的归纳。机器学习,1:81-1061986。[30]J.斯诺克,O.里佩尔,K.斯沃斯基,R.基罗斯,N.萨蒂什,N。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-4-26 11:31:35
Sundaram、M.M.A.Patwary、Prabhat和R.P.Adams。使用深度神经网络的可伸缩贝叶斯优化。在F.R.Bach和D.M.Blei主编的《第32届国际机器学习会议记录》,ICML 2015,法国里尔,2015年7月6日至11日,JMLR研讨会和会议记录第37卷,第2171-2180页,2015年。[31]斯塔克公司。Stata数据分析和统计软件。特别版发布,2007年10:733。[32]J.A.斯维茨。测量诊断系统的准确性。《科学》,240(4857):1285-12931988。[33]J.Tjaden、D.Auer和F.Laczko。将移民意图与流动联系起来:证据和潜在用途。《国际移民》,57(1):36-572019年。[34]S.M.维森特·塞拉诺、S.贝古里亚、J.I.洛佩斯·莫雷诺、M.安古洛和a.埃尔·凯纳维。一个新的全球多尺度干旱指数0.5网格数据集(1901-2006):与基于帕尔默干旱严重度指数的当前干旱指数数据集的比较。《水文气象杂志》,11(4):1033-1043,2010年。[35]S.M.维森特·塞拉诺、S.贝古里亚和J.I.洛佩斯·莫雷诺。对全球变暖敏感的多尺度干旱指数:标准化降水蒸散指数。《气候杂志》,23(7):1696-17181010。[36]D.A.威尔希特和M.D.斯沃博达。干旱预警系统在干旱防备和缓解方面的作用。干旱准备和干旱管理预警系统,第1-21页,2000年。预印本——2020年12月8日附录A机器学习方法A。1数据预处理(“hhsize”)、在国外建立人际网络(“mabr”)和干旱强度(“干旱”);一个目标属性表示迁移意图(“移动”)。第一步是数据预处理。它允许通过处理丢失的数据和与缩放/类型相关的问题来清理数据。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-4-26 11:31:41
当变量以不同的量表显示时,就会出现与量表相关的问题,例如年份(例如[2010,2016])和年龄(例如[0,100])。这个问题可能会对ML模型的输出和实现效率造成偏差。有两种类型的变量,数值变量和分类变量,可能需要预处理。分类标准是为了提高实施效率。因此,建议使用一种热编码将这些变量转换为数值变量。定义(一个热编码)。它包括为分类变量中的唯一标签创建新的二进制变量。众所周知,当使用不同尺度的数值变量输入时,模型输出会产生偏差。我们通过对这些数值变量进行二值化来克服这个问题。定义(数据二值化)。它包括将一个数值变量转换成几个二进制变量。二值化工作流程分为两个步骤:(i)将数值变量拆分为区间,并通过标记每个区间创建一个分类变量。然后,(ii)使用one-hot编码方法创建二进制变量。实例图A.2显示了年龄变量的二值化和一个热编码示例。正确建模。为此,在数据预处理步骤中对数据集进行分割,以训练和测试模型。定义(培训集和测试集)。训练集是用于训练模型的数据集的一部分,测试集是用于测试模型的数据集的保持部分。通常,60%到90%的数据库被指定为训练集,而其余的数据库被指定为测试集。为了得到一个无噪声且具有良好泛化能力的鲁棒模型,需要从数据集中迭代地提取训练集和测试集。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-4-26 11:31:48
这种重采样过程称为交叉验证过程。定义(交叉验证)。交叉验证过程包括将数据集随机拆分为相等的样本S、·SK。基于这些样本,创建KFold,每个KFold包含训练集和测试集。在第i个折叠处,样本S、···、SK(不包括GSI)被合并到一个训练集,样本II用作测试集。例如年龄hhsize mabr干旱移动1年轻大的是粗糙的是年轻大的不是粗糙的是中间大的是粗糙的是中间大的是粗糙的5岁小的是柔软的6岁小的不是柔软的是中间小的不是柔软的8岁中的是粗糙的是9岁小的是柔软的10岁中的是柔软的11岁中的不是柔软的12岁中的不是粗糙的13岁中大的是柔软的14岁中的不是粗糙的YesTable A.1:具有个体特征、干旱指数和迁移意图的样本数据集。”hhsize:家庭规模mabr:国外的人际网络。(注意:该表用于解释,而不是我们使用的数据集。)预印本-20201年12月8日2 3 4 5 6 7 9 10 11 12 14 Y Y Y N Y N Y N N Y N N N N Y Y N N Y Y Y N N Y Y Y N Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y N N N N N Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y Y。1到14之间的数字是表A.1中的实例数。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-4-26 11:31:54
大写的Y和N代表每个实例的移动意图。非数学范畴[0,30]年轻[65+∞)old[30,65]middle[30,65]middle[0,30]young[30,65]middle YoungMiddle old numerical numerical0 00图A.2:变量AGEI12Numerical0.4340.806-0.2710.131-0.722-0.288SPEI12Category的一次热编码和二值化示例[-0.722, -0.5022)bin1[-0.5022, -0.2825)bin2[-0.2825, -0.0628)bin3[-0.0628,0.1568)bin4[0.1568,0.3765)bin5[0.3765,0.5962)bin6[0.5962,0.806)bin7bin1 bin2 bin4…数值…0.00 00 00 00 00 00 00 00 0图A.3:SPEIA预印本12个月时间刻度的离散化示例-20201年12月8日25 6列车测试图A.4:10倍交叉验证示例。图A.4显示了第二次折叠的示例。A.2基于树的方法近似使用决策树的学习功能。定义。从根到叶代表分类规则。实例图A.1是使用样本数据集的决策树示例。叶子。每个节点代表对特征的测试,每个分支对应于特征的潜在值。实例在图A.1中的树中,年龄是根节点。这个节点有三个分支(年轻、中等和老年)年轻,干旱很严重,人们有一个移动的意图(移动)。通过选择每个节点上提供最佳数据分割的变量,构建决策树。这种划分基于对每个变量的杂质率(通过计算熵或基尼指数等获得)的测量。最佳变量是杂质率最低的变量。通常,此度量有利于拆分,允许在目标属性上具有优势或(强)区分性标签。模特。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-4-26 11:32:04
为此,我们将树的每一片叶子表示为线性模型的一个变量(特征)。这个变量是从根到叶的决策的产物。因此,该模型包含的变量与树中的树叶数量相同。这些变量显示了决策树如何自动考虑问题的非线性。实例五十、 图A.1(从树的左侧到右侧)。最左边的叶子变长等于1岁=年轻∧干旱=严酷。变量slandl等于toL=1age=old,l=1age=middle∧mabr=否。相应地,结果(y)如下:y=f(L)=βL+βL+βL+βL+βL+ (4) 极端梯度增强(XGB)[14]方法是众所周知且广泛使用的方法。定义(随机森林)。随机森林由几个决策树组成,它们作为一个整体一起运行。这群树被称为森林。每棵树对森林中的一个实例进行分类,该实例的类别标签由多数票决定。每棵树都建立在随机选择的数据集样本和大量特征的基础上。实例编号(即,实例编号为1的个人有搬家的意图)。使用包含五棵树的RF,我们用每棵树对该实例进行分类,并采用多数类标签。假设我们有这些预测{Yes,Yes,Yes,No,No},RF将这个例子归类为Yes。随机森林认为每棵树的预测具有相同的权重。相比之下,XGB没有做出这种假设,因此,它会动态地为每个树和实例分配一定的权重。在森林建设的每一步,都会添加一棵新树,以解决现有树的错误。通过构建决策树,人们可能会想知道,要实现更好的分类,需要深入到多深。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-4-26 11:32:12
对于一个森林,它需要多少棵树,需要选择多少特征?基本上,在ML中,这些参数是通过尝试几组参数来动态确定的。这个过程叫做参数调整。在本文中,我们使用了贝叶斯超参数优化(BHO)[30]。预印本——2020年12月8日定义(贝叶斯超参数优化)。它包括在几个参数上测试模型,并选择最有希望的参数。A.3绩效评估和实际结果(y)。这是最大似然法优于参数估计法的一个优点,这种估计法通常依赖于数据生成过程中的假设,以确保一致性[27]。为了进行比较,在ML中,我们通常构建一个混淆矩阵。定义(混淆矩阵)。混淆矩阵是将预测值与基本事实进行比较的矩阵。它包含四个值,即真阳性(实际观察‘是’和预测‘是’)、假阳性(实际观察‘否’但预测‘是’、假警报)、真阴性(实际观察‘否’和预测‘否’)和假阴性值(实际观察‘是’但预测‘否’)。实例图A.5显示了使用决策树(DT)和混淆矩阵预测的移动意图,将这些预测与观察到的(实际)移动意图进行比较。基于混淆矩阵,可以计算各种性能指标。常见的是准确性、精确性和召回率。定义(准确性-精确性-召回)。准确度是正确预测的观测值与观测总数的比率。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-4-26 11:32:19
这是一个直观的衡量标准,但只有在假阳性和假阴性没有太大区别的情况下。相反,精确性表示正确预测的阳性观察值与总预测阳性观察值的比率,而召回率表示正确预测的阳性观察值与所有准确(或真实)观察值的比率。公式说明了更好的性能)。预测类标签通常涉及用户定义的阈值(例如,0.5)。按照惯例,小于或等于阈值的概率被视为“否”,否则被视为“是”。不同定义的阈值会导致不同的预测。ROC(接收器工作特性)曲线(AUC)[,]下的面积是另一个模型性能指标,用于评估性能,而不考虑任何分类阈值。定义(ROC和AUC)。ROC曲线是一种二维图形,通过绘制假阳性分数来生成。模型对二元结果的分类程度如何。顾名思义,AUC(曲线下面积)就是比较下的面积。AUC值也在0到1之间(越高,性能越好)。实例图A.5显示了决策树(DT)的ROC曲线和AUC。该分类的AUC为0.89(即分类性能良好)。在本文中,我们主要使用AUC和精度来确定应该关注哪种方法。A.4输出解释:特征重要性和部分依赖图(PDP)用于估算方程式F(X)=的特征很少具有同等相关性。通常,只有一小部分特征是相关的。因此,在训练模型后,使用相对特征重要性(RFI)方法来确定相关特征。RFI是由Breiman等人提出的。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-4-26 11:32:26
[11] 对于基于树的学习方法。定义(RFI)。RFI包括:(i)对于树T的每个内部节点,计算每个特征对预测的贡献,(ii)然后对每个特征的贡献求和,以及(iii)相应地排列特征。为了计算决策树(5)中特征j(在nodej)的重要性,需要五个元素:是(wY-esj)和否(wNoj)实例的数量,nodej中的实例总数(wj=wY-esj+wNoj),j(cj=Pi)的贡献∈{Yes,No}wij),以及节点j(nj=wjcj)的重要性-主键∈{j}wkck的孩子们)。Ij=njPi∈{all feature nodes}ni(5)示例。特征年龄的重要性是年龄=nagenage+Ndround+nmabr=-1108-1108- 18- 8=0.977A预印本-20201年12月8日25 611 12观察到的移动是是是否否否否否否否否否否否否否否否否否否否否否否否否否否否否否否否否可能性1。0 1.0 0.50 0.40 0.40 0.0 1.0 0 0.0 0 0.40 0.0 0 0.50 0.40实际值预测结果是否总体结构正=4假阴性=2P=6假阳性=1真阴性=7N=8总P=5 N=9全部=14指标公式值真阳性+假阳性+1=0.80真阳性+假阴性+2=0.67准确性真阳性+真阴性+7=0.78●●●●●●●●Inf10。50.40AUC=0.890.000.100.250.500.750.901.000.000.10 0.25 0.75 0.90 1.00假阳性分数真阳性分数●0.50●预测混乱矩阵度量计算值。在单个决策树中,最重要的特征显然是根节点上的特征。在森林中,(5)被概括如下:RIj=Pt∈{forest}ntjPt∈{forest}Pi∈{t}nti(6)RFI的所有特征节点已变得广泛,并用于其他ML方法。为了了解这些重要特征如何影响结果y,我们使用了部分依赖图[23,第二章。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-4-26 11:32:32
14].定义(部分依赖)。假设特征X=X,X,···,Xp,索引为p={1,2,···,p}。LetSand及其互补的RBE子集,即S,R P∧ s∪ R=P∧ s∩ R=. 假设f(X)=f(XS,XR),f(X)对特征XSis,P DS(XS)=EXRf(XS,XR)的部分依赖性≈NNXi=1f(XS,xiR)(7)这是一个边际平均值,用于描述一组选定特征的影响。它近似为在互补集合XR中发生的每个实例(xiR)的预测在训练集中(X)的多个实例上的平均值。预印本——2014年12月8日(6,8)5(3,2)3(3,0)2(0,2)5(2,3)4(1,3)2(1,1)2(0,2)6×-5 + 8 × -7 = -86-8-6-2-8-4-2 -214 × -86-(5×)-8 + 5 × -8 + 4 × -4)= -1108-18x xx-8x x实例数:wj(wY-esj,wNoj)节点的贡献:cj=Pi∈{Yes,No}wijNodes的重要性:nj=wjcj-主键∈{j}WKCK的子图A.6:计算图A中DT中特征重要性所需的五个元素。(7)的计算需要传递每一组X的联合值的数据。这可能是计算性的,因此,部分依赖关系通常不会使用三个以上的特征进行计算。幸运的是,pds(XS=yes)pds(XS=no)。实例海外网络)。根据用于计算部分相关性的不同值,我们可以绘制一张图表,其中包含x轴上的测试值和y轴上的部分相关性输出。绘图的作用是显示每个特征值驱动结果的方向(朝向标签“是”或“否”)。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-4-26 11:32:39
该图显示了与其他特征的平均效果相关的特征效果。预印本——12月8日,2020age hhsizemabr=是干旱移动1年轻大的是粗糙的是年轻大的是粗糙的是中间大的是粗糙的是中间大的是粗糙的是中间小的是柔软的是年轻中的是粗糙的是年轻小的是柔软的10岁中的是柔软的11岁中的是柔软的12岁中的是粗糙的13岁中大的是柔软的14岁中的是的刺耳的是预测的是刺耳的是刺耳的是刺耳的是刺耳的是刺耳的是刺耳的是刺耳的是刺耳的是刺耳的是刺耳的是刺耳的是刺耳的是刺耳的是刺耳的是刺耳的不是刺耳的不是刺耳的不是刺耳的不是刺耳的不是刺耳的不是刺耳的不是刺耳的不是刺耳的不是刺耳的不是刺耳的不是刺耳的不是刺耳的不是刺耳的不是刺耳的不是刺耳的不是刺耳的不是刺耳的不是刺耳的不是刺耳的不是刺耳的不是刺耳的不是刺耳的不是刺耳的不是刺耳的不是中-中-中-大-中-大-中-大-软-中-旧-中-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗-粗,与相对特征重要性(RFI)方法的结果类似。我们还观察到,国际移动受较长的SPEI(例如18、24)的影响更大,而一般移动受较短的SPEI(例如2、3、12)的影响,SPEI校准测量某个特征值被置换后模型预测误差的增加。置换断裂值增加了模型误差,因为这意味着模型依赖于该特征进行预测。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群