全部版块 我的主页
论坛 经济学人 二区 外文文献专区
572 16
2022-06-10
英文标题:
《Optimal stopping via reinforced regression》
---
作者:
Denis Belomestny, John Schoenmakers, Vladimir Spokoiny and Bakhyt
  Zharkynbay
---
最新提交年份:
2019
---
英文摘要:
  In this note we propose a new approach towards solving numerically optimal stopping problems via reinforced regression based Monte Carlo algorithms. The main idea of the method is to reinforce standard linear regression algorithms in each backward induction step by adding new basis functions based on previously estimated continuation values. The proposed methodology is illustrated by a numerical example from mathematical finance.
---
中文摘要:
在本文中,我们提出了一种通过基于强化回归的蒙特卡罗算法来解决数值最优停止问题的新方法。该方法的主要思想是,通过基于先前估计的连续值添加新的基函数,在每个反向归纳步骤中加强标准线性回归算法。数学金融学的一个数值例子说明了所提出的方法。
---
分类信息:

一级分类:Mathematics        数学
二级分类:Numerical Analysis        数值分析
分类描述:Numerical algorithms for problems in analysis and algebra, scientific computation
分析和代数问题的数值算法,科学计算
--
一级分类:Computer Science        计算机科学
二级分类:Numerical Analysis        数值分析
分类描述:cs.NA is an alias for math.NA. Roughly includes material in ACM Subject Class G.1.
cs.na是Math.na的别名。大致包括ACM学科类G.1的材料。
--
一级分类:Quantitative Finance        数量金融学
二级分类:Computational Finance        计算金融学
分类描述:Computational methods, including Monte Carlo, PDE, lattice and other numerical methods with applications to financial modeling
计算方法,包括蒙特卡罗,偏微分方程,格子和其他数值方法,并应用于金融建模
--
一级分类:Statistics        统计学
二级分类:Machine Learning        机器学习
分类描述:Covers machine learning papers (supervised, unsupervised, semi-supervised learning, graphical models, reinforcement learning, bandits, high dimensional inference, etc.) with a statistical or theoretical grounding
覆盖机器学习论文(监督,无监督,半监督学习,图形模型,强化学习,强盗,高维推理等)与统计或理论基础
--

---
PDF下载:
-->
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2022-6-10 09:20:27
通过强化回归D实现最佳停车。贝洛梅斯特尼亚,b,*, J、 Schoenmakersc,V.Spokoinyb,c,B.ZharkynbaybaDuisburg Essen University,EssenbNational University Higher School of Economics,MoscowcWIAS,Berlina摘要本文提出了一种通过基于强化回归的蒙特卡罗算法来解决数值最优停止问题的新方法。该方法的主要思想是在每个反向归纳步骤中,通过基于先前估计的连续值添加新的基函数来加强标准线性回归算法。mathematica l-Finance的几个数值例子说明了所提出的方法。关键词:蒙特卡罗、最优停止、回归、加固2010 MSC:65C05、60H35、62P051。简介圆盘停留时间最优停车问题可以在低维情况下,通过树方法或对相应的偏微分方程使用确定性数值方法有效地解决。然而,应用程序中出现的许多最佳停止问题(参见例[1])涉及高维底层过程,因此有必要开发蒙特卡罗方法来解决此类问题。通过蒙特卡罗方法解决最佳停车问题是一项具有挑战性的任务,因为这通常需要逆向动态编程,长期以来,人们认为逆向动态编程与蒙特卡罗方法的正向结构不兼容。近年来,许多研究集中于开发有效的方法来计算价值函数或最优运动策略的近似值。著名的例子包括[2]的函数优化方法、[3]的mes h方法、[4]、[5]、[6]、[7]和[8]的基于回归的方法。最流行的算法类型无疑是回归算法。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-10 09:20:30
事实上,在许多实际的PricingProblem中,低阶多项式通常用于回归(见[1])。由此产生的最小二乘问题有相对较少的未知数量这项工作得到了RSF拨款19-71-30020的支持*对应的authorEmail地址:denis。belomestny@uni-到期日。de(D.Belomestny)URL:www.uni-due。de/~ hm0124(D.Belomestny)预印本提交给乳胶模板杂志2019年7月2日参数。然而,这种方法有一个重要的缺点,即对于运动边界的高度非线性行为建模而言,其灵活性可能太小。可以使用高次多项式,但它们可能包含太多的参数,因此,要么超过蒙特卡罗样本,要么由于参数数量太多而无法进行参数估计。本文提出了一种基于回归的蒙特卡罗方法,用于在动态规划算法的每个后退步骤建立解析回归模型。这使得估计值函数的成本几乎与基于低阶多项式但精度更高的标准回归算法相同。额外的基函数是为手头的最优停止问题构造的,无需使用固定的预先定义的单位。具体而言,新的基函数是在后向诱导过程中通过合并前一个后向诱导步骤中的信息来学习的。我们的算法可以被视为构造基本值函数的稀疏非线性近似(根据其在蒙特卡罗路径上的依赖性)的方法,从这个意义上讲,它扩展了关于最优存储问题的非线性学习型算法的文献,例如,见最近的论文[9]和其中的参考文献。本文的结构如下。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-10 09:20:33
在回顾了美式期权的基本事实并在第2节中解决了主要设置后,第3节中介绍了强化流程。第5.2节研究了数值性能。主要设置分别是一类一般的最优停止问题,可以针对基础Rd值马尔可夫过程(Xt,0≤ t型≤ T)在过滤概率空间上定义(Ohm, F、 (英尺)0≤t型≤T、 P)。流程(Xt)假设适用于过滤(Ft)0≤t型≤感觉每个X都是可测量的。回想一下,每个FTI都是Ohm 这样的话 英尺: F代表s≤ t、 此后,我们将自己限制在只有有限数量的停止机会0<t<t<…<tJ=允许的T区域。我们现在根据马尔可夫链Zj考虑预先规定的奖励过程gj(Zj):=Xtj,j=1,J,对于某些给定的函数g,gJmapping Rdinto[0,∞). 设Tjdenote取{j,j+1,…,j}中的值的停止时间集,并考虑公式vj(x)=supτ的最优停止问题∈TjE[gτ(Zτ)| Zj=x],x∈ Rd,(1)在(1)中,我们必须读取T:=tf或j=0。许多用于最优停止问题的近似算法的一个共同特征是,它们提供估计值CN,1(x),中国,J-1(x)对于所谓的连续函数:Cj(x):=E[Vj+1(Zj+1)| Zj=x],j=1,J- 1.(2)这里的指数N表示,上述估计是基于一组九个独立的“训练”轨迹(Z(i),Z(i)J),i=1,N、 (3)从一点开始的全明星赛。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-10 09:20:36
对于所谓的回归方法,通过应用动态规划原理获得(1)和(2)的估计值:Cj(x)=E[Vj+1(Zj+1)| Zj=x],Vj(x)=max(gj(x),Cj(x)),1≤ j≤ J- 1,VJ(x)=gJ(x),CJ(x)=0,结合非参数回归。在Tsitiklis van Roy【6】的设置中,这种回归算法可以描述如下。首先初始化CN,J(x)≡ 0.假设对于某些1≤j<j,已经构建了Cj+1(x)的估计值CN,j+1(x)。然后,在第j步中,需要估计条件期望值nE[VN,j+1(Zj+1));Zj=x],(4),其中VN,j+1(x)=max(gj+1(x),CN,j+1(x))。这可以通过在路径集(Z(i)j,VN,j+1(Z(i)j+1)),i=1,…,上执行非参数回归(线性或非线性)来实现,N、 (5)由于一系列bas is函数,导致估算值CN,j(x)。在Longstaff-Schwartz[5]的方法中,我们通过使用交错的“虚拟现金流”bV(i)jin集合进行回归来构建估计值CLSN、jsay。首先初始化,除了CLSJ≡ 0,bV(i)J:=gJ(Z(i)J),i=1。。。,N、 一旦为j+1建造了CLSN、j+1和BV(i)j+1≤ J,用VN,J+1(Z(i)J+1)替换为bv(i)J+1,通过(5)计算关于某一组基函数的回归估计CLSN,J。下一次更新bV(i)j=(gj(Z(i)j),gj(Z(i)j)≥ CLSN,j(Z(i)j);bV(i)N,j+1,gj(Z(i)j)<CLSN,j(Z(i)j),对于i=1。。。,N(另见[1])。考虑到估计值CN,1(x),中国,J-1(x)(Tsitiklis van Roy或Longstaff Schwartz),我们接下来可以构建一个较低的边界(低偏差估计),用于验证(通常次优)停止规则:τN=min1.≤ j≤ J:gj(Zj)≥ CN,j(Zj),有CN,J≡ 定义为0。事实上,fix一个自然数可以模拟过程Z的最新独立轨迹。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-10 09:20:39
然后可以将vc的低偏差估计构造为vntest,N=NtestNtestXr=1gτ(r)NZ(r)τ(r)k(6) τ(r)N=minn1≤ j≤ J:gj(Z(r)J)≥ CN,j(Z(r)j)o.(7)3。强化回归算法在本节中,我们概述了基于一组训练轨迹(3)在t=0时估计(1)解的方法。在这方面,作为一种新的成分,我们将通过学习并在后向层上合并新的基函数来加强标准回归程序。作为一个典型示例,可以考虑在估计Cj的回归步骤中合并VN,jas基函数-1、其他可能性,例如,Vj的某些(空间)导数,或与时间j的基本运动边界密切相关的函数,例如1{gj-CN,j}。通常,可以在每个步骤中选择(通常很小)数量的合适的增强基函数。3.1. 回归基础的后向强化假设我们手头有一些固定的和计算上的基函数奶酪系统(ψ(x),ψK(x))。现在,我们在每个反向回归步骤j中扩展此基础-1具有一组额外且稀疏的新函数vn,j-1.vN,j-1在给定的训练路径上,在前面的后退步骤j中构造的。其主要思想是,这样构造的基可以提供更精确的回归估计CN,j-1连续函数Cj-1、与原来的基础相比,同时保持便宜。3.2. 后向增强回归算法基于训练样本(3),我们提出了一种增强后向算法,其伪算法工作如下。在时间J,我们初始化CN,J(x)=0。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

点击查看更多内容…
相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群