全部版块 我的主页
论坛 经济学论坛 三区 博弈论
1135 0
2012-01-01
悬赏 15 个论坛币 未解决

论文的中心:无法observe subgame perfect ultimatum game的实验中 不是因为fairness or other-regard perference, 而是due to the learning effect.也就是要用到learning theory.


现在有两个方法 希望大家帮忙看看到底哪个比较可行(结构,立意,数学要求).我的能力就是现在大四,而且所有的learning theory都是自学的.除了看了很多paper以外唯一的教材是the theory of learning in games…DavidLevine那本.


第一个就是: fictitious play/Bayaines learning 证明,在某种情况下,对于ultimatumgameoutcome是可能convergent to SPE. 不解释实验数据


问题是:很难区别以下两种情况

a) the learning process under theconsideration converges only to the SPE and the other NE are unstable
b) both the SPE and other NE are locally stable and hence convergence to eitheris possible

SPENEsubest,但每个outcome of UG都是NE…所以证明到底是去到哪一个.还是取决于learningrule.


第二个就是: 解释实验数据, learning model去解释为什么实验中没有SPE.这个主要是用reinforcement learning model replicator dynamic learning model.


问题: 1)如果选择这个话题,想要避免只是literature review的话,就只能讨论learning speed,现在唯一想到的就是加一个asymmetric information,

2)这个只用数学证明不够,还要做simulation…..



所以想请问下大家:

1)这两个到底哪个更好一点,从更符合文章的立意跟结构来说?

2)如果要做simulation的话,是不是就接近于编程?有什么材料推荐的没有最好是英文的……..

3)有没有很了解locally stable这个概念的给推荐一点儿相关的文献.或者帮忙给解释下.我看过的解释都是从纯数学角度出发 实在是难以接受阿~~~~~~~~~~~~~~~


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群