全部版块 我的主页
论坛 计量经济学与统计论坛 五区 计量经济学与统计软件 Stata专版
896 4
2023-10-20
如题所示,我在使用xtmlogit时遇到了问题。我的stata版本是17.0 SE, 结局变量是有10个不同值的无序多分类变量,控制变量有19个,observation有38w。在使用xtmlogit时,我的页面停留在了“Fitting comparison model ...”和“Refining starting values:”。经查阅,我发现或许可以通过“startvalues()”选项来解决这一问题,但我不知道如何设定这一值。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2023-10-20 19:13:46

input float(mlogit_death_reason        pm255y_10)        int        age        byte        gender_cv        float        years_education        byte        married_inpu        float        home_disposable_assets_10000        byte        vigorous_sports
0 2.5298166 62 2 17 1         0        99
2 2.5298166 57 2 11 6         0        99
0 2.3443332 -9 2 11 6         0        99
0 2.5298166 68 1  5 6         0        99
0 2.5298166 70 2 14 1         0        99
0 2.5298166 60 1 12 1         0        99
0 2.3415167 63 1 12 1 1.6686262        4
0 2.5298166 70 2  8 6         0        99
0    2.3648 73 2  8 6         0        2
0 2.5298166 56 1 11 1         0        99
0 2.3558667 59 1 11 1 .28380996        2
0 2.5298166 70 2  8 1         0        99
0    2.3648 73 2  8 1  .5112997        3
0 2.5298166 70 2 12 1         0        99
0 2.3475666 73 2 12 6   .347164        4
0 2.5298166 70 1 12 3         0        99
3 2.3475666 73 1 12 1 2.1645837        4
0 2.5298166 73 1  7 6         0        99
0 2.5298166 68 2 12 1         0        99
0 2.5298166 60 1 11 1         0        99
0 2.5298166 74 1 15 1         0        99
0    2.3648 77 1 14 1 2.0963287        2
0 2.5298166 76 2  7 6         0        99
0    2.3648 79 2  4 6  .5112997        4
0 2.5298166 87 1 12 6         0        99
3 2.5298166 72 1  9 1         0        99
0 2.3558667 -9 1  9 1         0        99
0 2.5298166 71 2 12 6         0        99
0 2.3558667 74 2 12 6 .25564986        4
0 2.5298166 67 2 12 1         0        99
0 2.3475666 70 2 12 1 2.1645837        4
0 2.5298166 52 2 11 1         0        99
0 2.3558667 55 2 14 1 .28380996        3
0 2.5298166 83 2  8 6         0        99
0 2.5298166 67 1  8 6         0        99
0 2.3475666 70 1  8 6  1.481769        4
0 2.5298166 56 2 12 1         0        99
0 2.3415167 59 2 12 1 1.6686262        4
0 2.5298166 67 2 13 6         0        99
0 2.5298166 66 2 18 6         0        99
0 2.3443332 69 2 16 6  2.637821        4
0 2.5298166 70 1 15 1         0        99
0 2.5298166 71 2  7 6         0        99
0 2.3475666 74 2  7 6 .05215257        4
0 2.5298166 59 2 11 1         0        99
0 2.5298166 66 1 15 1         0        99
0 2.3415167 69 1 15 1 1.8080915        2
0 2.5298166 83 2 12 6         0        99
0 2.3475666 86 2 11 6 .25564986        4
0 2.5298166 92 1 18 1         0        99
0 2.5298166 70 2 19 1         0        99
0    2.3648 73 2 14 1 2.0963287        1
3 2.5298166 84 1 10 6         0        99
0    2.3648 -9 1 10 6         0        99
0 2.5298166 69 1 15 1         0        99
0    2.3648 72 1  8 1  .5112997        4
0 2.5298166 51 1 16 1         0        99
0 2.5298166 62 2  8 6         0        99
0 2.3558667 65 2 11 6  .9926399        1
0 2.5298166 55 2 11 1         0        99
0    2.3648 58 2 11 1  .7925146        2
0 2.5298166 49 2 17 1         0        99
1 2.5298166 65 2 12 6         0        99
0 2.3415167 -9 2 12 6         0        99
0 2.5298166 79 2  1 6         0        99
0 2.3558667 82 2  4 6  .2397183        3
0 2.5298166 70 1 12 1         0        99
1 2.5298166 90 2  4 6         0        99
0 2.3558667 -9 2  4 6         0        99
0 2.5298166 84 2 16 1         0        99
3 2.5298166 87 2  9 6         0        99
0 2.3558667 -9 2  9 6         0        99
0 2.5298166 56 2 15 3         0        99
0 2.5298166 65 2 15 1         0        99
0 2.3443332 68 2 15 1 1.8080915        4
3 2.5298166 85 2  3 6         0        99
0 2.3558667 -9 2  3 6         0        99
3 2.5298166 75 1  8 6         0        99
0 2.3475666 -9 1  8 6         0        99
0 2.5298166 81 1  7 6         0        99
0 2.3558667 84 1  7 6  .7158196        4
6 2.5298166 67 1  8 1         0        99
0 2.3475666 -9 1  8 1         0        99
0 2.5239666 77 2 12 6         0        99
0 2.3475666 80 2 11 6  1.738419        4
0 2.5239666 59 2 11 1         0        99
0 2.5239666 61 2  8 1         0        99
0 2.5239666 70 2 17 1         0        99
0 2.5239666 77 1 12 1         0        99
0    2.3648 80 1 15 1  3.834748        1
0 2.5239666 60 2 14 1         0        99
0 2.3443332 63 2 12 1  5.112997        1
0 2.5239666 64 2  8 1         0        99
0 2.3475666 67 2  8 1  1.533899        2
0 2.5239666 68 2  8 6         0        99
0 2.3443332 71 2  8 6  1.282252        3
0 2.5239666 59 1 12 1         0        99
0 2.3443332 62 1 11 1  .8789505        4
0 2.5239666 70 1 11 4         0        99
0 2.3558667 73 1 11 4 2.2700875        4

input        byte(heart_attack        hypertension        stroke        COPD        cancer        parkinson        high_cholesterol        diabetes        bmicat        esmoked        mh007_        sphus_inpu)
0 0 0        0 0 0 0 0 2 99 99        2
1 0 0        0 0 0 0 0 2 99 99        4
. . .        . . . . . 2 99 99        4
0 0 0        0 0 0 0 0 2 99 99        2
0 1 0        0 0 0 1 0 3 99 99        3
0 0 0        0 0 0 0 0 3 99 99        5
0 1 0        0 0 0 0 0 3  1  2        4
0 1 0        1 0 0 1 0 3 99 99        5
0 1 0        0 0 0 1 0 3  0  2        3
0 0 0        0 0 0 0 0 4 99 99        1
0 0 0        0 0 0 0 0 3  1  2        3
0 1 1        0 0 0 0 0 4 99 99        3
0 1 0        0 0 0 0 1 2  0  1        4
0 1 0        0 0 0 0 0 4 99 99        2
0 1 0        0 0 0 0 0 1  0  2        3
0 1 0        0 0 0 0 0 3 99 99        2
0 1 0        0 0 0 0 0 1  1  2        4
0 0 0        0 0 0 0 0 2 99 99        3
0 1 0        0 0 0 1 0 3 99 99        4
0 1 0        0 0 0 0 0 4 99 99        3
0 0 1        0 0 0 0 0 4 99 99        3
0 1 1        0 0 0 0 0 4  1  2        3
0 1 0        0 0 0 1 0 1 99 99        5
0 1 0        1 0 0 1 0 1  0  1        4
0 0 0        0 0 0 0 1 4 99 99        3
0 1 0        0 0 0 0 1 2 99 99        5
. . .        . . . . . 2 99 99        5
0 1 0        1 0 0 0 0 3 99 99        3
1 1 1        0 0 0 0 0 3  0  1        5
0 1 0        0 0 0 0 0 3 99 99        4
0 1 1        0 0 0 0 0 2  1  2        4
0 0 0        0 0 0 0 0 3 99 99        1
0 0 0        0 0 0 0 0 2  0  2        2
0 0 0        0 0 0 0 0 3 99 99        4
0 1 1        0 0 0 0 0 2 99 99        5
0 0 1        0 0 0 0 0 2  0  1        5
0 0 0        0 0 0 0 0 3 99 99        1
0 1 0        0 0 0 0 0 4  0  2        4
0 0 0        0 0 0 0 0 3 99 99        2
0 0 0        0 0 0 0 0 2 99 99        1
0 0 0        0 0 0 0 0 4  0  1        3
0 1 0        0 0 0 1 0 3 99 99        2
1 1 0        0 0 0 1 0 3 99 99        3
1 1 0        0 0 0 1 0 1  0  2        2
0 1 0        0 0 0 0 0 2 99 99        2
0 0 0        0 0 0 0 0 4 99 99        3
0 1 0        0 0 0 0 0 3  1  2        3
0 1 0        0 0 0 0 0 3 99 99        3
0 1 0        0 0 0 0 0 3  0  1        3
1 1 0        0 0 0 0 0 3 99 99        3
0 1 0        0 0 0 0 0 3 99 99        3
0 1 0        0 0 0 0 0 4  0  2        3
0 1 0        1 0 0 0 1 2 99 99        4
. . .        . . . . . 2 99 99        4
0 1 0        1 0 0 0 0 3 99 99        5
1 1 0        1 0 0 0 0 2  0  1        5
1 1 0        0 0 0 0 0 3 99 99        4
0 0 0        0 0 0 0 0 2 99 99        2
0 0 0        0 0 0 0 0 3  0  2        1
0 0 0        0 0 0 0 0 2 99 99        4
0 1 0        0 0 0 0 0 2  0  1        3
0 0 0        0 0 0 0 0 2 99 99        2
0 0 0        0 0 0 0 0 2 99 99        1
. . .        . . . . . 2 99 99        1
0 1 1        0 0 0 0 0 1 99 99        4
0 1 1        0 0 0 0 0 1  0  2        4
0 0 0        0 1 0 0 0 2 99 99        5
0 0 0        0 0 0 0 0 2 99 99        4
. . .        . . . . . 2 99 99        4
0 1 0        0 0 0 0 0 2 99 99        3
0 1 0        0 0 0 0 0 1 99 99        5
. . .        . . . . . 1 99 99        5
0 0 0        0 0 0 0 0 2 99 99        2
0 1 0        0 0 0 0 0 3 99 99        3
0 1 0        0 0 0 0 0 4  1  2        3
1 1 0        0 0 0 0 0 3 99 99        5
. . .        . . . . . 3 99 99        5
1 1 0        0 0 0 0 0 2 99 99        3
. . .        . . . . . 2 99 99        3
0 1 0        0 1 0 1 0 3 99 99        5
0 1 0        0 1 0 0 0 3  0  1        3
0 1 0        0 0 0 0 1 4 99 99        3
. . .        . . . . . 3 99 99        3
1 1 0        0 0 0 0 1 2 99 99        3
1 1 0        0 0 0 0 1 1  0  2        2
0 0 0        0 0 0 0 0 4 99 99        2
0 0 0        0 0 0 0 0 4 99 99        2
0 0 0        0 0 0 0 1 3 99 99        3
0 0 0        0 0 0 0 0 3 99 99        2
0 0 0        0 0 0 0 0 3  0  2        3
0 1 0        0 0 0 0 0 3 99 99        4
0 1 0        0 0 0 0 0 3  0  2        3
0 1 0        0 0 0 0 0 4 99 99        2
0 1 0        0 0 0 0 0 4  0  2        3
1 1 0        0 0 0 0 1 3 99 99        3
1 1 0        0 0 0 0 1 1  0  1        5
1 0 0        0 0 0 0 0 3 99 99        3
1 1 0        0 0 0 0 0 1  0  1        5
1 1 0        0 0 0 0 1 3 99 99        3
1 1 0        0 0 0 0 1 1  0  2        2
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2023-10-24 10:56:01
startvalues()选项允许你手动设置模型的起始值。你可以根据你的数据和模型的特点来选择合适的起始值。一种常见的方法是使用其他模型的估计结果作为起始值,或者使用数据中的一些统计量来估计起始值。
以下是一个示例,展示了如何使用startvalues()选项来设置起始值:
xtmlogit outcome_var covariates, startvalues(values)
其中,outcome_var是你的因变量,covariates是你的自变量,values是你设置的起始值。
设置起始值并不能保证模型能够收敛或提高收敛速度,这取决于数据的特点和模型的复杂性。如果问题仍然存在,你可能需要考虑其他调整模型的方法,如增加迭代次数、调整优化算法等。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2023-10-24 23:15:13
sun_man 发表于 2023-10-24 10:56
startvalues()选项允许你手动设置模型的起始值。你可以根据你的数据和模型的特点来选择合适的起始值。一种 ...
谢谢,我试试
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2024-9-1 11:14:16
fletcherrr 发表于 2023-10-24 23:15
谢谢,我试试
您好,最终您是咋解决的?遇到了同样的问题,请教一下
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群