XAI(可解释 AI):SHAP(SHapley Additive exPlanations)【机器学习、深度学习解释库】
2023-09-27 14:20:37 时间
我们知道模型可解释性已成为机器学习管道的基本部分,它使得机器学习模型不再是"黑匣子"。
幸运的是,近年来机器学习相关工具正在迅速发展并变得越来越流行。本文主要是针对回归问题的 SHAP 开源 Python 包进行 XAI 分析。
Lundberg 和 Lee (2016) 的 SHAP(Shapley Additive Explanations)是一种基于游戏理论上最优的 Shapley value来解释个体预测的方法。 Shapley value是合作博弈论中一种广泛使用的方法,它具有令人满意的特性。从博弈论的角度,把数据集中的每一个特征变量当成一个玩家,用该数据集去训练模型得到预测的结果,可以看成众多玩家合作完成一个项目的收益。Shapley value,通过考虑各个玩家做出的贡献,来公平的分配合作的收益。
SHAP (SHapley Additive exPlanations) is a game theoretic approach to explain the output of any machine learning model. It connects optimal credit allocation with local explanations using the classic Shapley values from game theory and their related extensions.
一、概述
针对结构化的数据以及分类任务,集成模型往往会有较好的效果,如XGBOOST的诞生,不仅风靡各大数据竞赛,也在工程中得到了广泛的
相关文章
- 机器学习:学习k-近邻(KNN)模型建立、使用和评价
- python机器学习数据建模与分析——数据预测与预测建模
- 【机器学习】Learning to Rank入门小结 + 漫谈
- 【机器学习】深入理解拉格朗日乘子法(Lagrange Multiplier) 和KKT条件
- Elon Musk:人类要和机器融合,不然就会在AI时代被淘汰
- 机器学习和统计学的“爱恨情仇”可以结束了
- 指令周期 机器周期 状态周期 振荡时钟周期(时钟周期)(转)
- 【《机器学习》第5章神经网络】其他常见神经网络+深度学习
- ARM公司推出AI与机器学习用新型微处理器
- 互联网,IT,大数据,机器学习,AI知识tag云
- Power AI:堪称机器学习的“破壁人”
- 【机器学习算法-python实现】PCA 主成分分析、降维
- 马云称AI下棋是侮辱人类,机器要有追求
- 用验证机制加强神经网络的能力:研究者提出机器学习防御措施
- 让AI帮你上分!——使用机器学习来挑选Dota2补位英雄
- 美国银行将 AI 应用于企业应收账款处理;联合国或将利用机器学习技术帮助救灾工作
- 【星际争霸人类战胜机器】韩国选手4:0战胜Facebook等机构AI
- 机器学习:使用matlab实现SVM完成垃圾邮件识别
- 想知道自己的机器上有几根物理内存条?不拆机