全部版块 我的主页
论坛 提问 悬赏 求职 新闻 读书 功能一区 学道会
843 7
2019-03-27
机器学习导论》2nd Edition ---(土耳其)Ethem Alpaydin 著 范明 昝(zan)红英 牛常勇译 ----机械Press-2014.3


2.5 学习多类

前面有家用汽车例子,属于家用汽车类的正例和属于其他所有汽车类别的负例。
这是一个两类(two-class)问题。
通常情况下,我们有K个类,记为Ci, i=1, 2, ---, K,

且每个输入实例严格地属于其中一个类。训练集形如
    x = ﹛x t, r t ﹜  t =1 to N
其中r 是K维的。且 r t i = { 1   xt 属于Ci     ;  0  如果x t 属于Cj, j 不等于i

在用于分类的机器学习中,我们希望学习将一个类与所有其他类分开的边界。
这样可以把K-类的分类问题看作是K个两类问题。

因此在K-类的分类问题中,我们要学习K个假设  (此处有公式)
整体经验误差对所有类在所有实例上的预测取和。(此处有公式)

理想情况下,对于给定的X,只有其中一个假设为1,且我们能够选定一个类。但,若没有,或者有两个或更多的 hi(x)=1时,就无法选定一个类,这是不确定的(doubt)情况且分类器要拒绝这种情况。

在学习家用汽车的例子中,只用了一个假设,且只对正例样本建模。任何未包括其中的实例都不是家用汽车。
作为另一种选择,有时我们可能更倾向于构建两个假设,I个对正例,一个对负例。


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2019-3-28 00:23:44

为兄点赞!
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2019-3-28 07:27:06
为您点赞!
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2019-3-28 08:25:12
感谢分享,赞!
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2019-3-28 08:51:38
为您点赞!
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2019-3-28 12:09:45
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

点击查看更多内容…
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群