全部版块 我的主页
论坛 经济学人 二区 外文文献专区
662 12
2022-05-11
英文标题:
《A rank based mean field game in the strong formulation》
---
作者:
Erhan Bayraktar and Yuchong Zhang
---
最新提交年份:
2016
---
英文摘要:
  We discuss a natural game of competition and solve the corresponding mean field game with \\emph{common noise} when agents\' rewards are \\emph{rank dependent}. We use this solution to provide an approximate Nash equilibrium for the finite player game and obtain the rate of convergence.
---
中文摘要:
我们讨论了一个自然竞争博弈,并在代理人的报酬与秩相关的情况下,求解了相应的平均场博弈。我们利用这个解为有限人博弈提供了一个近似的纳什均衡,并得到了收敛速度。
---
分类信息:

一级分类:Mathematics        数学
二级分类:Probability        概率
分类描述:Theory and applications of probability and stochastic processes: e.g. central limit theorems, large deviations, stochastic differential equations, models from statistical mechanics, queuing theory
概率论与随机过程的理论与应用:例如中心极限定理,大偏差,随机微分方程,统计力学模型,排队论
--
一级分类:Mathematics        数学
二级分类:Optimization and Control        优化与控制
分类描述:Operations research, linear programming, control theory, systems theory, optimal control, game theory
运筹学,线性规划,控制论,系统论,最优控制,博弈论
--
一级分类:Quantitative Finance        数量金融学
二级分类:Mathematical Finance        数学金融学
分类描述:Mathematical and analytical methods of finance, including stochastic, probabilistic and functional analysis, algebraic, geometric and other methods
金融的数学和分析方法,包括随机、概率和泛函分析、代数、几何和其他方法
--

---
PDF下载:
-->
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2022-5-11 02:02:36
电子公社。Probab。第0期(2012),第0期,第1-13期。内政部:10.1214/ECP。vVOL PIDISSN:1083-589Xelectronic通信概率强公式中基于秩的平均场博弈*Erhan Bayraktar+Yuchong Zhang抽象解,为有限人博弈提供近似纳什均衡,并获得收敛速度。关键词:平均场游戏;竞争常见噪声;秩相关交互作用;非局部互动;强有力的表述。AMS MSC 2010:60小时;91A。2016年3月26日提交给ECP,最终版本于2016年10月6日接受。1引入平均场游戏(MFG),由[]和[]独立引入,当代理的动态被公共噪声调制时,为最终玩家游戏提供有用的纳什均衡。Lacker[]使用弱公式,在没有常见噪声的情况下。为了解决常见噪声的问题,我们将利用常见噪声中的机制,然后通过观察纯秩相关的奖励函数是平移不变的。本文的其余部分组织如下:在第2节中,我们介绍了N-playergame,其中玩家通过基于等级的奖励函数进行耦合。使用平均场极限的纳什均衡。利用这些结果,在第4节中,我们使用了[7]中的机制,并获得了常见噪声的相应结果*该研究部分由国家科学基金会DMS-1613170资助。+美国密歇根大学。电子邮件:erhan@umich.edu哥伦比亚大学,美利坚合众国。电子邮件:yz2915@columbia.eduarXiv:1603.06312v3[math.PR]2016A年10月15日基于排名的平均场游戏2 N人游戏我们认为每个玩家都控制自己的状态变量,并根据自己的排名进行奖励。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-11 02:02:40
我们将表示byXithei第个玩家的状态变量,并假设它满足以下随机微分方程(SDE)dXi,t=ai,tdt+σdBi,t+σdWt,Xi,0=0,aii(Bi)i=1,。。。,在某些过滤概率空间上定义的布朗运动(Ohm, F、 {Ft}t∈[0,T],P),分别代表特殊噪声和普通噪声。游戏在时间t>0时结束,当每个玩家收到一个基于等级的奖励,减去努力的运行成本,我们将假设该成本为二次方,或者某个常数c>0。为了精确定义基于等级的奖励,让“uN:=NNXi=1δXi,TN”uN(-∞, Xi,T]iR×[0,1]3(x,r)7→ R(x,R)∈ RuRRu(x)=R(x,u(-∞, x] )=R(x,Fu(x)),其中Fu表示u的累积分布函数。我收到的奖励是由RuN(Xi,T)=R(Xi,T,\'uN)给出的(-∞, Xi,T])=R(Xi,T,F?uN(Xi,T))。R(x,R)x绩效补偿。每个玩家的目标是观察所有玩家的进度,并选择自己的努力水平以最大化预期回报,同时预测其他玩家的策略。作为时间和状态变量的函数,参与者的均衡预期收益满足一个耦合的非线性偏微分方程组,在一个大种群博弈中,任何个体对整个种群的影响都是显著的→ ∞N人游戏,无论有无普通噪音。3无共同噪声时的平均场近似值σ=0一致性条件)。对于任何波兰空间X,用P(X)表示X上概率测度的空间,P(X):={u∈ P(X):RX|X|du(X)<∞}.u ∈ P(R)考虑单个玩家的优化问题:v(t,x):=supaEt,x“Ru(XT)-ZTtcasds#(3.1)ECP 0(2012),论文0。第2页/13页ECP。ejpecp。orgA基于等级的平均场博弈,其中dxs=asds+σdBs,(3.2)Bis是布朗运动,范围是一组逐步可测量的过程,使ERT | as | ds<∞.
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-11 02:02:44
相关的动态规划方程是VT+supaavx+σvxx- ca= 0v(T,x)=Ru(x)候选优化器isa*=而汉密尔顿-雅可比-贝尔曼(HJB)方程可以写成vt+σvxx+(vx)4c=0。u(t,x):=e(2cσ)-1v(t,x),givingut+σuxx=0。加上边界条件u(T,x)=e(2cσ)-1Ru(x),我们可以很容易地写出解:u(t,x)=E经验2cσRu(x+σ√T- (tZ)(3.3)其中Z是标准正态随机变量。让我们进一步把u写成一个积分:u(t,x)=Z∞-∞经验2cσRu(x+σ√T- (tz)√2πexp-Zdz=Z∞-∞经验2cσRu(y)p2πσ(T)- t) 经验-(y)- x) 2σ(T)- (t)dy.利用支配收敛定理,我们可以在积分符号下进行微分,并且getux(t,x)=Z∞-∞经验2cσRu(y)p2πσ(T)- t) 经验-(y)- x) 2σ(T)- (t)(y)- x) σ(T)- t) dy=Z∞-∞经验2cσRu(x+σ√T- (tz)√2πexp-Zzσ√T- tdz=E经验2cσRu(x+σ√T- (tZ)Zσ√T- T. (3.4)同样,我们得到了uxx=E经验2cσRu(x+σ√T- (tZ)Z- 1σ(T)- (t). (3.5)(3.3)(3.5)以下是估计数。请注意,所有边界都与μ无关。引理3.1。函数u和v满足0<K-1.≤ u(t,x)≤ K- kRk∞≤ v(t,x)≤ kRk∞,0≤ ux(t,x)≤Kσrπ√T- t、 0≤ vx(t,x)≤ 2cσKrπ√T- t、 |uxx(t,x)|≤2KσT- t、 |vxx(t,x)|≤4cK(1+Kπ)-1) T- t、 其中K:=exp((2cσ)-1KK∞).ECP 0(2012),论文0。第3/13页ECP。ejpecp。orgA基于等级的平均场*=VX2CX遵循最优控制状态过程,用X表示*, 有一个强解[0,T)。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-11 02:02:47
注意这一点≤ZTta*(s,X)*s) ds≤ZTtσKp2/π√T- sds=2σKr2(T- t) π<∞.uX*u=x+Ruta*(s,X)*s) ds+σ(Bu)- 英国电信公司→ t问题的功能(3.1)(3.2),以及*是最优的马尔可夫反馈控制。最后,再次使用支配收敛定理,我们可以证明对于t<t,limx→±∞ux(t,x)=0。A.*我同意许多现实生活中的观察,当一名球员领先非常大时,这是很容易的,而不是试图追赶。3.1纳什均衡的存在性∈ P(R)(3.1)(3.2)v(t,x;u)a*(t,x)=(2c)-1vx(t,x;u)通用播放器的过程xu满足SDEdXt=vx(t,Xt;u)2cdt+σdBt,x=0。(3.6)Φ : u 7→ L(XuT)L(·)有时指的是这样一个固定点,作为一个平衡度量。定理3.2。映射Φ有一个固定点。证据u ∈ P(R),我们有|XuT|≤ E2σKr2Tπ+σ| BT |!=: C.Φ(u)=L(XuT)P(R)拓扑的弱收敛性。回想一下p(R)={u∈ P(R):RR|x|du(x)<∞}. 为P(R)配备由1-Wasserstein度量所诱导的拓扑:W(u,u):=infZR | x-y | dπ(x,y):π∈ P(R)带边缘u和u= 啜饮ZRψdu-ZRψdu:ψ∈ 边缘(R).Lip(R)R(P(R),W)空间(见[9,定理6.18])。我们将使用P(R)的一个子集,具体如下:=u ∈ P(R):ZR | x | du(x)≤ C.ECP 0(2012),论文0。第4/13页ECP。ejpecp。基于orgA等级的平均场gameEW{un} E上的EWEWEΦEΦ连续。在证明的其余部分中,常数C可能会随着行的变化而变化。让{uk} Esuch thatW(微克,微克)→ 问→ ∞. 我们希望展示(Φ(uk),Φ(u))→0.注意w(Φ(uk),Φ(u))≤ E[| XukT- XuT |]≤2cZTE[|vx(t,Xukt;uk)-vx(t,Xut;u)|]dt。根据引理3.1,我们知道|vx(t,Xukt;uk)-vx(t,Xut;u)|≤C√T-T
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-5-11 02:02:50
辛塞尔茨√T-tdt<∞, 由于支配收敛定理,它足以证明t∈ [0,T),E[|vx(T,Xukt;uk)-vx(t,Xut;u)|]→ 通过引理3.1和中值定理,我们得到|vx(t,Xukt;uk)-vx(t,Xut;u)|≤ |vx(t,Xukt;uk)-vx(t,Xut;uk)|+|vx(t,Xut;uk)-vx(t,Xut;u)|≤计算机断层扫描- t | Xukt- Xut |+|vx(t,Xut;uk)-vx(t,Xut;u)|。所以表示W(Φ(uk),Φ(u))→ 0,这足以表明对于每个固定的t∈ [0,T),E[|vx(T,XuT;uk)-vx(t,Xut;u)|]→ 0,(3.7)安第斯山脉[|Xukt- Xut |]→ 0.(3.8)我们第一次展示(3.7)。利用引理3.1中的估计,我们得到了[|vx(t,Xut;uk)-vx(t,Xut;u)|]=CEu(t,Xut;u)[ux(t,Xut;uk)-ux(t,Xut;u)+ux(t,Xut;u)[u(t,Xut;u)- u(t,Xut;uk)]u(t,Xut;uk)u(t,Xut;u)≤ CE[|ux(t,Xut;uk)-ux(t,Xut;u)|]+C√T- tE[|u(t,Xut;u)- u(t,Xut;uk)|]。由于所有被积函数都是有界的,为了表明期望值收敛到零,有必要检查被积函数是否收敛到零a.s.Fixω∈ Ohm, 从(3.4)可知| ux(t,Xut(ω);uk)-ux(t,Xut(ω);u)|≤ 总工程师|Z |σ√T- TRuk(x+σ)√T- (tZ)- Ru(x+σ)√T- (tZ)x=xut(ω)。W(微克,微克)→ 0ukuFuk(x)Fu(x)xFu从该连续性中得到,在每个点x处收敛到u(x),而uFu定理允许我们交换极限和期望,给出|ux(t,xut(ω);uk)-ux(t,Xut(ω);u)| → 0.ECP 0(2012),论文0。第5/13页ECP。ejpecp。基于orgA等级的平均场游戏类似地,从(3.3)中我们得到| u(t,Xut(ω),uk)-u(t,Xut(ω),u)|≤ 切赫Ruk(x+σ√T- (tZ)- Ru(x+σ)√T- (tZ)ix=Xut(ω)。同样,利用Fu有可数的多个不连续点,我们可以证明| u(t,Xut(ω),uk)-u(t,Xut(ω),u)|→ 0.把一切放在一起,我们已经证明了(3.7)。接下来,我们通过Gronwall不等式展示(3.8)。允许 > 必须给0。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

点击查看更多内容…
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群