04 2020 档案
摘要:5.14更新 LIME 动机:在全局中独立变量对结果的影响可能非常复杂,难以直观得到关系 如果专注于一个局部,可以把他们的关系近似为线性模型 提出 Local Interpretable Model-Agnostic Explanations,在一组可解释的表示上确定一个可解释的模型,使这个模型在局部与分类器一致 可解释的数据表示 Interpretable Data Repres...
阅读全文
摘要:背景 现有机器学习解释方法专注于后验解释。主要通过: 无法获取模型内部信息,对每个样本进行局部分析; 构造query来获取模型输入输出之间局部的关系。 现有的困难主要包括: 如何定义局部性(如结构化的数据); 解释的可辨识性; 计算代价(有些算法需要复杂的优化过程)。 然而,逐样本的解释无法在邻域输
阅读全文
摘要:为了实现稀疏性(使中间层一定比例的系数为0),加入L1Penalty。pytorch实现如下: Sparse AutoEncoder (Andrew Ng) 在AE中,我们希望中间层维数尽量少,实现数据的“压缩”表达。实际应用中,这样学到的隐层通常跟PCA效果类似。 通过引入一些限制,即使隐层维度较
阅读全文
浙公网安备 33010602011771号