关于机器学习模型的可解释性算法!
数据派THU
共 2230字,需浏览 5分钟
· 2022-01-09
来源:Datawhale 本文约1400字,建议阅读5分钟
本文介绍目前常见的几种可以提高机器学习模型的可解释性的技术。
Partial Dependence Plot (PDP);
Individual Conditional Expectation (ICE)
Permuted Feature Importance
Global Surrogate
Local Surrogate (LIME)
Shapley Value (SHAP)
![](https://filescdn.proginn.com/0ff155f14bb1ad4538e7a5a77dcb835c/055aa374154d01f599f5834197880dc6.webp)
![](https://filescdn.proginn.com/c04bd6a868851f1cd403b1b6e11d1125/72d1a27f1b6d57464e51c10d66497765.webp)
![](https://filescdn.proginn.com/c04bd6a868851f1cd403b1b6e11d1125/72d1a27f1b6d57464e51c10d66497765.webp)
例如,一个特征可能与一半数据的预测正相关,与另一半数据负相关。那么PDP图将只是一条水平线。
![](https://filescdn.proginn.com/147ce1f0d4e15c71525e19295f25ce78/9353b6a38893d2d5190cfd876ad08ebf.webp)
![](https://filescdn.proginn.com/235a223ef368660f1f2d04145cb9d17a/80f03e8e6a312f1d7f19546a31bae319.webp)
首先,我们使用经过训练的黑盒模型对数据集进行预测; 然后我们在该数据集和预测上训练可解释的模型。
注:代理模型可以是任何可解释的模型:线性模型、决策树、人类定义的规则等。
![](https://filescdn.proginn.com/5f08878e4e5220c4801b6655f92aae56/b9105aec5f013da8b5cb5102d4901275.webp)
由于代理模型仅根据黑盒模型的预测而不是真实结果进行训练,因此全局代理模型只能解释黑盒模型,而不能解释数据。
![](https://filescdn.proginn.com/a37b580eb193b61558ea1779f1f082fb/287cfc76cbfdf2a44d98f23b77759999.webp)
![](https://filescdn.proginn.com/0f71c3f79b58238a5be30f9bccd4b4e1/5b1945c7f3e618dd42ec938aae2936f3.webp)
https://www.twosigma.com/articles/interpretability-methods-in-machine-learning-a-brief-survey/
编辑:于腾凯
校对:林亦霖
评论