InterpretML 微软可解释性机器学习包
InterpretML
InterpretML: A Unified Framework for Machine Learning Interpretability
https://github.com/microsoft/interpret
InterpretML 是一个为实践者和研究者提供机器学习可解释性算法的开源 Python 软件包。InterpretML 能提供以下两种类型的可解释性:(1)明箱(glassbox),这是针对可解释性设计的机器学习模型(比如线性模型、规则列表、广义相加模型);(2)黑箱(blackbox)可解释技术,用于解释已有的系统(比如部分依赖、LIME)。这个软件包可让实践者通过在一个统一的 API 下,借助内置的可扩展可视化平台,使用多种方法来轻松地比较可解释性算法。InterpretML 也包含了可解释 Boosting 机(Explanable Boosting Machine,EBM)的首个实现,这是一种强大的可解释明箱模型,可以做到与许多黑箱模型同等准确的性能。
其他库
LIME
“Why Should I Trust You?” Explaining the Predictions of Any Classifier
https://github.com/marcotcr/lime
LIME是一种算法(库),可以解释任何分类器或回归量的预测。LIME是如何做到的呢?通过可解释的模型在局部不断接近预测值,这个模型解释器可用于生成任何分类算法的解释。
H2O
https://github.com/h2oai/mli-resources
H2O的无人驾驶AI,提供简单的数据可视化技术,用于表示高度特征交互和非线性模型行为,通过可视化提供机器学习可解释性(MLI),说明建模结果和模型中特征的影响。
原创文章,转载请注明出处!
本文链接:http://daiwk.github.io/posts/platform-interpret-ml.html
相关文章
- 讲座报名|清华大学夏树涛:信息论、机器学习与AI安全初探
- 为什么90%的机器学习模型从未应用于生产?
- 机器学习:MATLAB语法
- 《零基础学机器学习》笔记-第3课-线性回归
- ML如何做科学发现?牛津大学268页博士论文详述科学机器学习内涵
- Byzer + OpenMLDB 实现端到端的,基于实时特征计算的机器学习流程
- Deep Learning Chapter01:机器学习中高数知识
- 机器学习算法(一)SVM
- 机器学习中最常见的四种分类模型
- 给初学者讲的机器学习
- python机器学习库sklearn——朴素贝叶斯分类器[通俗易懂]
- [Python人工智能] 二十.基于Keras+RNN的文本分类vs基于传统机器学习的文本分类
- 量子机器学习新思路——构建参数化的量子线路
- 马斯克血洗推特!传机器学习裁员90%,团队直接解散
- 马斯克血洗推特!传机器学习裁员90%,团队直接解散
- B.机器学习实战系列[一]:工业蒸汽量预测(最新版本下篇)含特征优化模型融合等
- 全日制学生全程免费参会、BERT作者之一亲自授课,2021机器学习暑期学校开放注册
- 机器学习(四):机器学习工作流程
- 探索Linux之深度机器学习(linux深度学习)
- 2020A2M人工智能与机器学习创新峰会即将于上海召开!
- 智能手机 + 机器学习 = 个人终端的未来
- 机器学习太难?这里有一份详细到周的入门学习计划
- 谷歌、微软、OpenAI 等巨头的七大机器学习开源项目 看这篇就够了
- 这届机器学习论文评比,搞怪无厘头我只服Reddit
- 掌握Linux下机器名的查询方法(linux查询机器名)
- “微软自拍”安卓版本上线!机器学习技术加持智能美颜