全部版块 我的主页
论坛 提问 悬赏 求职 新闻 读书 功能一区 学道会
1043 1
2020-09-01
打卡
Ridge的特点
1. 惩罚越大,所有的参数都是趋近于0
2. 所有的参数都是**趋近**于0,很难等于0
3. 可以大致观测数据集里的共线性问题,查看这个图当中,是否有喇叭口。
4. 如果出喇叭口的话,可以大致确定,有共线性的存。但是不能确定具体哪些特征之间有共线性。
5. Ridge可以尝试消弱这种共线性问题,但是大多数情况下,效率不是特别的高。
Lasso的特点
1. 惩罚越大,w值越小。
2. 惩罚力度比Ridge大的多!!!
3. 一个很小的惩罚就可以直接将很多不重要的特征的系数值,变成0!而不是像Ridge一样趋近于0!
4. 线性模型Lasso回归算法当中,越不重要参数,在惩罚增大的情况下,值越容易受影响,越重要的参数,在惩罚增大的情况下,相对来说,越不容易受影响,所以,会发现,这些不重要的特征,不能很好的非常的反应X和Y直接的关系的特征,越容易被压缩成0。
5. 将系数值变成0的话,这个系数所对应的特征,在$Y = w_{0} + w_{1}x_{1} + \\dots + w_{p}x_{p}$回归当中,不参与回归的计算,从而达到类似于特征筛选的效果
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2020-9-1 23:44:29
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群