全部版块 我的主页
论坛 提问 悬赏 求职 新闻 读书 功能一区 学道会
929 0
2020-05-07
1.对于ridge来说,惩罚越大,参数值都是逐步的趋近0,而不是等于0

2.Ridg可以用来探索数据集当中是否有共线性,但是不能特别确定到底是哪一些特征是共线的

3.Ridge的找极值的条件非常的苛刻,当且仅当两个形状(两个函数)在这个点的切线的方向一致的时候,说明它们两个只有一个交点

4. Lasso由于形状奇特,在拐点是连续但是不可导,所以在那个点的切线是一在范围只能,只要保证靠过来的等高线的切线在这个范围内就行了。就能使得两个形状有一个交点。所以说Lasso很容易碰到坐标轴上的点,是的一些参数值直接变成0

5.回归类模型,特征重要性,就是系数值的绝对值的大小

6.Lasso 如何做特征选取,不删数据的情况下,通过加大惩罚lam, 使得不重要的特征对应的系数值直接变成0,使其特征不再进入回归的计算,达到特征选取的效果

7.对当前数据集来说,发现使用Lasso,特征减到了30%,精度还是保持在96%,说明当前剩下特征是最重要,可以很好体现出X与Y之间关系

8.特征越多,模型复杂越大,更容易将噪音学习到模型中,导致过拟合,导致泛化能力(在未知数据集下的表)差。模拟的特征越少呢,泛化能力就越强,但是太过的了话,会导致欠拟合。

9.梯度是一个向量,一个向量有方向,也有长度,梯度方向是损失函数,增长趋势最大的方向,向量的长度描述的是什么?描述的在该方向下走一个单位的距离,损失函数到底增长的多少

10.梯度是损失函数增长最快的方向,目标,最小化损失函数,沿着梯度的方向,也就是损失函数下降最快的方向
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群