全部版块 我的主页
论坛 提问 悬赏 求职 新闻 读书 功能一区 学道会
353 1
2020-01-07
2020/01/07
《百面机器学习-算法工程师带你去面试》读书笔记
《No.7: p48~p60》第三章 经典算法

Q25 空间上线性可分的两个点,分别向SVM分类的超平面上做投影,这些点在超平面上的投影仍然是线性可分的吗?

从SVM直观推导和凸优化理论两个角度可推导,在超平面上的投影是线性不可分的。

Q26 是否存在一组参数使SVM训练误差为0?

可透过证明得到存在一组参数可使SVM训练误差为0

Q27 训练误差为0的SVM’’分类器一定存在吗?

经过证明训练误差为0的SVM分类器存在

Q28 加入松弛变量的SVM的训练误差可以为0吗?

使用SMO算法(Sequential minimal optimization)训练的线性分类器并不能一定得到训练误差为0的模型,因为优化目标改变了,并不再是使训练误差最小。

Q29 逻辑回归与线性回归有何异同?

1        相异点:
1.1        逻辑回归处理”分类问题”、”因变量是离算的”、”广义线性模型下,因变量y服从二元分布”
1.2        ;线性回归处理”回归问题”、”因变量是连续的”、”因变量y服从正态分布”。
2        相同点
2.1        都使用极大似然估计法建模。
2.2        两者求解超参数的过程中,都可以使用梯度下降的方法。

Q30 逻辑回归处理多标签的分类问题时,有哪些做法,分别用在哪些场景,它们之间有何关系?

1.        若一个样本只对应一个标签,则可假设每个样本属于不同标签的概率服从几何分布,使用多项逻辑回归(Softmax Regression)来进行分类。
2.        当样本可能属于多个标签时,可训练k个二分类的逻辑回归分类器。这样可解决每个样本可能拥有多个标签的情况。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2020-1-12 05:14:12
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群