机器学习模型如何无法在实际场景中交付
昨天,我哥哥在家里弄坏了古董。我开始搜索FeviQuick(一种经典胶水)以将其放回原处。考虑到它是摆放得最错的物品之一,我开始在过去三个月中从未去过的所有抽屉和每个未接触的角落搜索它。一个小时后,我放弃了搜索–无处找不到FeviQuick。我缩小了寻找范围,开始再次搜索,却发现它被压在三本书下!
但是这个故事与机器学习模型有什么关系?让我解释一下我如何思考以及机器学习模型如何思考。
人心与机器–解决问题
我将列出所有可能的位置(数据)。我的大脑会自动确定要彻底搜索的地方的优先级。这可以被视为为每个地点(之前)分配一个概率。第一次搜索后没有任何结果,我开始考虑所有可能的位置。我母亲以为她最后一次在我的卧室里看过它(新数据)。现在,我考虑到该对象位于我的卧室中的可能性(Mind)。
在整个思考过程中,我的头脑正在为这些位置(后验)分配新的概率。基本上,我的概率值不限于一个值,而是一个值的范围。贝叶斯概率的确定范围就是这样-不是单个值,而是值的分布。
资料来源:blog.datumbox.com
现在用于机器。我们输入的数据包含所有可能找到的位置。查找模型的每个位置都有相同的可能性,因为机器不知道这种称为偏差的东西,也没有任何先前的训练数据可参考。
现在,机器无法获得任何结果,因此它将为存在的每个概率分配零值。即使我们教机器只考虑几个位置,它也会给每个位置一个相等的可能性,对我们的情况没有帮助。在这里,我们可以看到概率值被限制为单个值。如果找不到该对象,则该机器将值分配为零,因为它没有余地可能会出错(所有机器都容易出错)。
机器学习模型没有空间可以包含不确定性和概率!
现实世界中的机器学习
考虑将其应用于现实生活中的问题,那里发生了绑架事件,我们试图缩小绑架者绑架该人的可能性。
这是我们可能拥有的先验知识,因此描绘了鉴于绑架者在那个正方形中而找到绑架者的可能性。
作为人类,我们知道不能排除任何地方,因为首先,绑架者不必静止不动,而且总有可能将他藏在我们下落不明的地方。因此,我们根据每个街区上存在的建筑物的类型来确定他可能在哪里。那些位于阴凉和偏远地区的可能性更高。这称为可能性。
现在,假设我们从一个人那里得到了一个小提示,他肯定看到该人从E13街区前行了吗?然后我们的概率将发生如下变化:
绑架者所在位置的后验概率。
在这里,我们可以看到概率对齐发生了变化。朝向E12块右侧的单元格的绿色阴影已经增加。有时也称为后验概率。可能性已与值E相乘,从而在这些区域中更新了概率的后验值。此值E称为证据。
尽管有此信息,但它并未将零概率分配给E12之前的块,因为它确实考虑了不确定性。
此层次结构可以用作事件链,一旦有新信息提供,证据就会更新。先前情况的后验将成为更新情况的可能性。让我们给出一个可视化的公式:
在此,P(A 1 | B 1),P(A 2 | B 2)是计算后验
对于机器学习模型(例如逻辑回归),甚至对于多层感知器,如果不考虑贝叶斯类比,就不可能训练这些模型。对于机器学习模型,它将分配看起来像这样的值:
分配给每个区块的可能性均等
现在,让我们看看机器学习模型如何对像以前一样添加的新信息做出反应,即,已经发现绑架者趋向于E12的右侧:
这里的模型表示很少,并且显示了过多的偏差和对数据的依赖性
您能看到模型变得有多偏见吗?它已为E12之前的位置分配了零值。这似乎很不方便,因为它没有考虑到提供的信息或数据可能有误的因素,因此该模型可能已经朝错误的方向寻找,浪费了时间。
这是因为模型采用了常识性方法,在这种情况下,如果未找到该项目,则不管指定的任何其他条件如何,其可能性均为零(绑架者可能已经走到E12区块的左侧,或者举报人可能是错误的)。
题库