您如何解释
机器学习模型?
机器学习(ML)模型越来越多地用于增强金融,电信,医疗保健等领域的人类决策过程。在大多数情况下,用户不了解这些模型如何做出预测。缺乏了解使决策者难以证明其决策的合理性。大部分ML模型都是黑匣子,无法单独说明为何达到特定建议或决定。这迫使用户说“算法让我做到了”。线性回归模型的解释很简单,但其准确性较低。对于
神经网络,其准确性很高,但是很难解释。为了建立与利益相关者的信任,决策者必须学习用于解释和解释模型的技术。让我们在此博客中研究一种这样的技术。
替代模型可以帮助解释中复杂度的机器学习模型。它们是更简单的模型,可用于解释更复杂的模型。假定它们表示复杂模型的内部机制,并且不能完美地表示基础响应函数,也不能捕获复杂特征关系。它们可以帮助用户了解模型给出的预测输出的趋势,以及从独立变量集中选择的属性的变化。根据过去的实际经验,当输入以特定方式变化时,用户将对模型输出有明确的期望。这些输入-输出关系在代理模型中捕获。使用由代理模型生成的简单的输入输出关系图,您可以轻松解释模型对特定范围内所选属性的响应。为了充分说明模型,您需要通过从模型的一组重要属性中选择一个或多个输入来训练多个代理模型。
训练代理模型是解释现有机器学习模型行为的最简单方法。要训??练代理模型,您不需要了解生产模型的任何信息,您可能会看到它是黑盒子。它有一个输入数据,当我们传递它时,我们得到一个输出。以下是训练代理模型的必要条件:
-现有的机器学习模型。
-输入可以由现有模型处理的数据。这可以是来自生产环境的真实数据。
请执行以下步骤:
1.将数据(独立变量)传递到黑盒模型中并获得预测值。
2.使用来自输入数据的自变量和来自黑盒的预测作为因变量来训练代理模型。
3.计算替代模型的预测误差,并将其与黑盒的预测进行比较。误差越小,替代模型对黑盒子的解释就越好。
当我们获得具有可接受的预测误差的替代模型时,我们可以查看其参数以了解哪些功能很重要以及黑盒模型如何工作。由于替代模型仅根据黑匣子模型的预测而不是实际结果进行训练,因此它们只能解释模型,而不能解释真实数据。
简单模型的全局可解释属性用于解释更复杂模型的全局属性。与全局代理模型一样,本地代理模型是复杂模型的简单模型,但是它们仅针对某些有趣的数据行进行训练(例如,根据数据集中的最佳客户或最有可能失败的设备,一些模型的预测)。全局代理人关心的是解释模型的整体逻辑,而局部代理人只对理解受输入变量范围有限的预测感兴趣。

关注 CDA人工智能学院 ,回复“录播”获取更多人工智能精选直播视频!