全部版块 我的主页
论坛 经济学人 二区 外文文献专区
2022-6-11 12:25:33
相对误差以平均标准偏差最大值(左-中-右)表示。图6和图7显示,神经网络和蒙特卡罗近似之间的平均(所有参数组合)相对误差始终小于0.5%(图6和图7中的左图),标准偏差小于1%(图6和图7中的中间图)。最大相对误差高达25%。我们的结论是,通过显示相同的错误行为,该方法可以充分推广到非常数正向方差的情况。4.2隐含波动率表面的校准速度和精度图8报告了所分析模型上不同参数组合测试集的平均校准时间。我们得出结论,基于梯度的优化器在速度上优于无梯度的优化器。此外,在图8中,我们观察到无梯度方法的计算时间受到参数空间维数的严重影响,即前向方差比分段常数方差校准更快。我们发现Lavenberg-Marquard是速度/收敛性方面最平衡的优化器,我们选择使用该优化器进行进一步的实验。鼓励读者记住,校准时可使用各种各样的优化装置,并为未来的研究留下最佳选择。图8:使用一系列优化器的所有模型的平均校准时间。为了评估准确性,我们报告了校准的模型参数Bθ,并将其与合成生成的数据进行了比较,其中包含为生成合成数据而选择的一组参数θ。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-11 12:25:36
我们通过参数相对误差,即ER(bθ)=bθ来测量校准的精度- θ| |θ|以及相对于原始曲面的均方根误差(RMSE),即RMSE(bθ)=VuTunxi=1mXj=1(eF(bθ)ij- σMKTBS(Ti,kj))。因此,一方面,良好校准的衡量标准是较小的RMSE。另一方面,对给定模型的参数灵敏度测量是RMSE和参数相关误差的综合结果。4.2.1具有分段恒定正向方差的(粗糙)Bergomi模型中模拟数据的校准实验我们考虑具有分段恒定正向方差结构的粗糙Bergomi模型(3)和Bergomi模型(6)。图9和图10表明,RMSEI的99%分位数低于1%,并表明神经网络方法正确推广到分段常数前向方差。我们再次发现,每个参数的最大相对误差集中在0左右,这是使用相对误差作为衡量标准的结果。这表明成功地推广了一般正向方差,据我们所知,这之前还没有通过神经网络或机器学习技术解决过。图9:Levenerg-Marquardt跨测试集随机参数组合校准后,粗略Bergomi参数相对误差(左)和RMSE(右)的累积分布函数(CDF)。图10:Levenerg-Marquardt跨测试集随机参数组合校准后,1因子Bergomi参数相对误差(左)和RMSE(右)的累积分布函数(CDF)。4.2.2校准在具有历史数据的粗略Bergomi模型中,如前所述,神经网络近似器的自然使用是对历史数据的模型校准。我们讨论过,只要近似值是准确的,就应该在给定的公差范围内执行校准任务。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-11 12:25:39
此外,人们应该期望这种容差与在训练集和测试集中获得的神经网络精度一致。在本节中,我们将使用神经网络近似进行历史校准,并将其与蛮力蒙特卡罗校准进行比较。准确地说,我们寻求解决以下关于粗糙Bergomi模型^θrBergomi的优化问题:=argminθrBergomi∈ΘrBergomiXi=1Xj=1(eF(θ)ij- σMKTBS(Ti,kj))。式中θrBergomi=(ξ,ξ,ξ,ξ,ξ,ν,ρ,H)和ΘrBergomi=[0.01,0.25]×0.5,4]×[-1, 0] ×[0.025, 0.5]. 对于时间网格,我们选择(T、T、T、T、T):=×(1、3、6、9、12),对于走向网格ki:=0.85+(i- 1) ×0.05,对于i=1。。。,我们认为SPX市场在2010年1月1日至2019年3月18日期间在预先规定的时间和罢工网格上保持微笑。图11显示了使用神经网络价格校准的粗略Bergomi参数的历史演变。特别是,我们注意到H<正如之前在许多学术论文[1、2、7、6、8、10、22、26、28、44、40、45]中所讨论的那样,此外,我们可以确认在Q下,H∈ [0.1,0.15]如Gathereal、Jaisson和Rosenbaum[28]第页所示。图12使用Levenberg-Marquardt对NN最优函数进行基准测试,并通过Levenberg-Marquardt对蛮力MCcalibration进行差异进化。同样,我们发现两者之间的差异在大多数情况下都在0.2%以下,并得出结论,差异进化算法确实优于theLevenberg-Marquardt。这反过来表明,神经网络在一阶导数上可能不够精确。这一观察结果有待进一步研究。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-11 12:25:42
也许令人惊讶的是,我们有时使用神经网络比MC定价本身获得更好的结果。这可能是因为神经网络中的梯度是精确的,而当使用MC蛮力校准时,我们使用有限差来近似梯度。图11:粗略Bergomi模型中参数的历史演变,采用SPX校准的分段恒常向前方差项结构。图12:上图比较了通过神经网络最佳函数Vialvenberg-Marquardt(橙色虚线)获得的历史RMSE,以及通过莱文伯格·马夸特。下图显示了与MC蛮力校准的差异。4.3粗糙BergomimodelIn中障碍期权的数值实验本节我们表明,我们的方法可以很容易地扩展到奇异期权。为此,我们测试了基于数字屏障选项的基于图像的方法。我们遵循第4.1节中描述的粗糙Bergomi模型的相同架构和实验设计。如第3.1.2节所述,我们将目标函数调整为(17)和(18)中给出的支付函数,并用屏障水平网格替换罢工网格。图13证实了神经网络近似的准确性,平均绝对误差小于10bps,标准偏差为10bps。图13:上图:测试集的向下和向外神经网络绝对误差分析。图下图:向下和在测试集的神经网络绝对误差分析中5结论和展望:“最佳”模型总结起来,神经网络有可能有效地近似复杂函数,而这些函数很难表示,通过其他方法进行评估也很耗时。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-11 12:25:45
我们将在这里使用深度神经网络,从传统模型的参数到隐含波动率值网格表示的隐含波动率曲面的形状,近似定价图(或等效的隐含波动率映射),加快了每个功能评估,同时保持对网络输出的可靠性和可解释性的控制。我们在此提倡的隐式基于网格的方法也允许进一步的应用,为金融建模开辟了进一步的前景。混合“专家”模型的潜在应用和前景:在前面的章节中,我们建立了一种强大的近似方法,以近似不同随机模型下的隐含波动率,并强调目标函数的选择(网格上表面的评估,受图像像素启发)对网络性能至关重要。现在,我们对反向任务感兴趣,并询问由该目标函数同时训练到多个随机模型的神经网络是否能够识别给定数据集来自哪个随机模型。通过这样做,我们想到的潜在应用有两个方面:(1)最终,我们感兴趣的是哪种模型(或现有随机模型的何种组合)最能描述市场。(2) 从一个更具学术性和实践性的角度来看,我们感兴趣的是,是否有可能将一个随机模型的参数“转换”为另一个随机模型的参数,以及转换到什么程度。我们进行了进一步的初步实验,作为分类环境中的概念证明。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-11 12:25:48
Wetrain进一步使用神经网络来识别三个给定的随机波动率模型中的哪一个生成了给定的隐含波动率面。培训程序:本实验中的隐含波动率曲面由theHeston、Bergomi和rough Bergomi模型生成(请参见第2.1节以获取提示)。对于每个挥发性表面,对应于模型分配了一个“FLAG”(例如:1代表Heston,2代表Bergomi,3代表rough Bergomi)。因此,训练集由以下形式的曲面组成:∑M(θ)BS,I),其中M是三个模型MHeston、MBergomi、MrBergomi中的一个,θ是该模型(因此在ΘHeston、ΘBergomiorΘrBergomi)的容许参数组合,I是识别生成曲面的模型的flag(I=1,如果M=MHeston,I=2,如果M=MBergomi,I=3,如果M=MrBergomi)。我们将这些表面的混合物定义为∑MMixture((a,b,c)):=a∑MHeston+b∑MBergomi+c∑Mrough Bergomi,其中a,b,c≥ 0且a+b+c=1。到目前为止,培训适用于识别单个模型表面(a=0,b=0,c=1,a=0,b=1,c=0或a=1,b=0,c=0)。为了将其推广到混合,我们随机选择曲面(每个模型一个),并计算混合曲面∑MMixture((a,b,c))=a∑MHeston+b∑MBergomi+c∑Mrough Bergomi。相应的概率为(a,b,c=1- 一- b) 。网络架构:分类器是一个小型、完全连接的前馈网络,其原因与第3.2节所述的原因相同。该网络由2个具有指数线性激活函数的隐藏层(分别由100和50个输出节点组成)和一个具有softmax激活函数的输出层组成。因此,网络的输出表示属于特定模型的给定曲面的概率。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-11 12:25:51
我们使用20个阶段的随机梯度下降来最小化交叉熵(两个离散分布(p,q)的交叉熵,K可能不同的值是H(p,q):=-P1级≤我≤Kpilog qi。)。模型识别的数值实验:我们报告了许多实验中的一个作为概念证明:我们在粗糙的Bergomi和Heston曲面的混合物上测试该方法(因此在训练中设置b=0)。为了改变生成的混合物类型,我们选择了∈{0, 0.1, ··· , 0.9, 1}. 对于每个a,混合曲面计算为从粗糙Bergomi和Heston模型中随机选择的曲面的凸组合,并重复20次。该训练集有320000个曲面。为了进一步测试模型的稳健性,使用混合参数的细网格生成验证曲面:a∈ {0, 0.05, ··· , 0.95, 1}. 总的来说,验证集由105000个曲面组成。我们在图5中报告了分类者的效果并对结果进行了评论。图14:神经网络分类的误差取决于混合系数a。图中的每个点对应于给定a的所有混合曲面的神经网络平均估计系数。例如,对于a=0,曲面由粗糙的Bergomimodel生成。对于这些曲面的每个参数组合,我们计算预测混合系数,并在验证集上对所有参数进行平均,以报告^a。网络从不将混合系数设置为非常接近1或0,将曲面归因于一个特定模型。这可以用贝叶斯推理来解释。参考文献【1】E.Al\'os、D.Garc'a-Lorite和a.Muguruza。关于波动性衍生品和异类产品的微笑特性:理解波动率偏差。arXiv:1808.03610,2018年。[2] E.Al\'os、J.Le\'on和J.Vives。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-11 12:25:54
关于随机波动率跳跃扩散模型隐含波动率的短期行为。《金融与随机》,11(4),571-5892007。[3] A、安东诺夫、科尼科夫和斯佩克特。刀锋展翅。《风险》(8月号),第58-632013页。[4] M.Avellanda、A.Carelli和F.Stella。遵循Bayes路径进行期权定价。《金融计算智能杂志》,1998年。[5] A.R.巴伦。人工神经网络的近似和估计界。机器学习。第14卷:11994第115-133页。[6] C.拜耳、P.弗里兹、P.加西亚、J.马丁和B.斯坦珀。粗糙波动率的规则结构。arXiv:1710.074812017。[7] C.拜耳、P.弗里兹和J.Gatheral。粗略波动下的定价。《定量金融》,16(6):2015年1-18月。[8] C.拜耳、P.弗里兹、A.古利萨什维利、B.霍瓦思和B.斯坦珀。粗糙分数随机波动率模型中货币倾斜附近的短时间。arXiv:1703.05132,2017年。[9] C.拜耳和B.斯坦珀。粗随机波动率模型的深度校准。预印本,arXiv:1810.03399【10】M.Bennedsen、A.Lunde和M.S.Pakkanen。布朗半平稳过程的混合格式。《金融与随机》,21(4):931-9652017。[11] L.Bergomi。随机波动率建模。查普曼和霍尔/CRC金融数学系列。查普曼和霍尔/CRC,2015年。[12] A.Brostr¨om和R.Kristiansson。奇异衍生品和深度学习。未发表论文,瑞典斯德哥尔摩工程科学学院KTH皇家理工学院,2018年。[13] H.Buehler、L.Gonon、J.Teichman和B.Wood。深度对冲。预印本,arXiv:1802.030422018。[14] J.Cao、J.Chen和J.C.Hull。理解隐含波动性运动的神经网络方法。SSRN:32880672018年。[15] B.Chen、C.W.osterlee和H.Van Der Weide。ABR随机波动率模型的有效无偏模拟方案,2011年。[16] D.Clevert,T.Unterthiner,S。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-11 12:25:58
霍克雷特。利用指数线性单元(ELU)进行快速准确的深度网络学习。预印本,arXiv:1511.072892015。[17] J.De Spiegeleer、D.Madan、S.Reyners和W.Schoutens。定量金融的机器学习:快速衍生品定价、对冲和融资。SSRN:31910502018。[18] G.Dimitroff、D.R–order和C.P.Fries。使用卷积神经网络校准波动率模型。预印本,SSRN:32524322018。[19] M.Duembgen和L.C.G.Rogers。什么都不估计。《定量金融》,14(12),第206520722014页。[20] R.Eldan和O.Shamir。前馈神经网络的深度功效。JMLR:《车间和会议记录》第49卷第1-34页,2016年。[21]C.Dol\'eans Dade。半鞅在变量变换公式中的应用。Z、 《华尔街日报》,第16卷:181-1941970年。[22]O.El Euch和M.Rosenbaum。粗糙Heston模型的特征函数。出现在数学金融中。[23]O.El Euch和M.Rosenbaum。《粗糙赫斯顿模型中的完美对冲》,将出现在2018年《应用概率年鉴》上。[24]J.Friedman、R.Tibshiran和T.Hastie。统计学习的要素。斯普林格纽约公司,2001年。【25】R.Ferguson和A.Green。深入学习衍生品。预印本arXiv:1809.022332018。【26】M.Fukasawa。随机波动率的渐近分析:鞅展开。《金融与随机》,15:635-6542011。【27】J.Gatheral。节约型无套利隐含波动率参数化及其在波动率衍生品估值中的应用,发表于全球衍生品,2004年。【28】J.Gatherel、T.Jaisson和M.Rosenbaum。波动性很剧烈。《定量金融》,18(6):933-9492018。【29】J.Gatheral,A.Jacquier。无套利SVI波动率表面。《定量金融》,14(1):59-712014【30】A.Gulisashvili、B.Horvath和A.Jacquier。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-11 12:26:01
不相关SABR模型中零质量。《定量金融》,18(10):1753-17652018。【31】A.Gulisashvili、B.Horvath和A.Jacquier。关于SABR平面上布朗运动到达边界的概率。概率中的电子通信,21(75):1-132016。[32]I.Goodfello、Y.Bengio和A.Courville。深度学习。麻省理工学院出版社,2016年。【33】P.Hagan、D.Kumar、A.Lesniewski和D.Woodward。管理微笑风险。Wilmott杂志,9月号:84-108,2002年。【34】P.Hagan、A.Lesniewski和D.Woodward。随机波动性SABR模型中的概率分布。《金融学中的大偏差与渐近方法》,《数学与统计史普林格学报》,110,2015年。【35】S.Hendriks,C.Martini扩展SSVI波动面。预印本,SSRN:2971502,2017年。【36】A.埃尔南德斯。使用神经网络进行模型校准。风险,2017年。[37]K.Hornik。多层前馈网络的逼近能力。NeuralNetworks,4(2):251-2571991年。[38]K.霍尼克、M.斯丁奇科姆和H.怀特。多层前馈网络是通用的逼近器。神经网络,2(5):359-3661989。【39】K.霍尼克。M、 Stinchcombe和H.White。使用多层前馈网络对未知映射及其导数的通用近似。神经网络。第3卷:112990年。【40】B.Horvath、A.Jacquier和C.Lacombe。随机分馏效用模型的渐近行为。arXiv:1708.011212017。【41】B.Horvath、A.Jacquier和A.Muguruza。粗糙波动率的泛函中心极限定理。arXiv:1711.030782017。【42】B.霍瓦思,O.赖奇曼。SABR模型的Dirichlet形式和有限元方法。《暹罗金融数学杂志》,第716-754(2)页,2018年5月。哈钦森、詹姆斯·M、安德鲁·W·洛和托马索·波乔。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-11 12:26:04
“通过学习网络对衍生证券进行定价和对冲的非参数方法。”《金融杂志》49.3(1994):851-889。【43】J.M.Hutchinson,A.W.Lo,T.Poggio。通过学习网络对衍生证券进行定价和分类的非参数方法。《金融杂志》,49 p.851-889(3),1994年。【44】A.Jacquier、C.Martini和A.Muguruza。关于粗糙Bergomi模型中的VIX期货。《定量金融》,18(1):45-612018年。【45】A.Jacquier、M.Pakkanen和H.Stone。粗糙Bergomimodel的路径大偏差。《应用概率杂志》,55(4):第1078-10922018页。【46】A.Jentzen、B.Kuckuck、A.Neufeld、P.von Wurstemberger。《随机梯度下降优化算法的强误差分析》,预印本arXiv:1801.093242018。【47】S.Io Offe和C.Szegedy。批量标准化:通过减少内部协变量偏移来加速深度网络训练。预印本,arXiv:1502.031672015。[48]D.P.Kingman和J.Ba,Adam:随机优化的一种方法。2015年第三届学习代表国际会议论文。【49】A.Kondratyev。使用人工神经网络学习曲线动力学。预印本,SSRN:3041232,2018年。【50】D.卡夫。序列二次规划软件包。DFVLR-FB第88-281988页。【51】G.Kutyniok,H.B¨olcskei,P.Grohs和P.Petersen,《稀疏连接深度神经网络的最佳逼近》,预印本arXiv:1705.017142017。【52】A.Leitao Rodriguez、L.A.Grzelak和C.W.Oosterlee。SABR模型的有效多时间步长蒙特卡罗模拟。《定量金融》,17(10),第1549-156512017页。[53]K.Levenberg。用最小二乘法求解某些非线性问题的一种方法。应用数学季刊。2: 第164-168页,1944年。【54】D.马夸德。非线性参数的最小二乘估计算法。应用数学杂志。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-11 12:26:07
11(2):第431-4411963页【55】W.A.McGhee。SABR随机波动模型的人工神经网络表示。预印本,SSRN:32888822018。【56】H.N.姆哈斯卡。多层前馈人工神经网络的逼近特性。计算数学进展,1(1):61-801993。【57】J.A.Nelder和R.Mead。函数极小化的单纯形法。计算机日志。7: 第308-313页,1965年。【58】J.Nocedal和S.Wright。数值优化。运营研究和金融工程斯普林格系列。Springer Verlag纽约,2006年。【59】D.Pedamonti。NIST分类任务中深层神经网络非线性激活函数的比较。预印本,arXiv:1804.02763【60】M.J.D.Powell。一种直接搜索优化方法,通过线性插值对目标函数和约束函数进行建模。优化和数值分析进展,S.Gomez和J-P.Hennart编辑,Kluwer Academic(Dordrecht),第51-671994页。[61]L.M.Rios和N.V.Sahinidis。无导数优化:算法回顾和软件实现比较。全球优化杂志。第56卷:第3页,124712932013年。【62】M.Sabate Vidales、D.Siska和L.Szpruch。鞅函数控制变量通过DeepLearning预印本1810.050942018。【63】N.Ruiz、S.Schulter和M.Chandraker,《学习模拟》,预印本arXiv:1810.02513018。【64】L.Setayeshgar和H.Wang。前馈网络的大偏差,《应用可能性的进展》,43:2,第5455712011页。【65】U.Shaham、A.Cloninger和R.R.Coifman。deepneural网络的可证明逼近性质。应用程序。计算机。哈蒙。分析。,44(3): 537-557, 2018.【66】J.Sirignano和K.Spiliopoulos。连续时间的随机梯度下降:一个中心极限定理。暹罗J.Finan。数学8(1),第933-9612017页。【67】H.斯通。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-6-11 12:26:10
校准粗糙波动率模型:卷积神经网络方法。预印本,arXiv:1812.053152018。【68】R.斯托恩和K.普莱斯。一种简单有效的启发式算法,用于连续空间上的全局优化。全球优化杂志。第11:4卷,第341-3591997页。【69】V.N.Vapnik。统计学习理论。Wiley Interscience,1998年。[70]C.Zhu、R.H.Byrd和J.Nocedal。L-BFGS-B:算法778:L-BFGS-B,用于大规模边界约束优化的FORTRAN例程。ACM数学软件交易,23:4,第550-560页,1997年。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群