MLI 概述¶
Driverless AI 提供机器学习模型的稳健可解释性,从而以人类可读的格式来解释建模结果。在机器学习可解释性 (MLI) 视图中,Driverless AI 运用多种不同的技术和方法来解释说明模型结果。很多图表都能自动生成(具体取决于实验类型),包括 K-LIME 、Shapley、变量重要性、决策树替代模型、部分依赖性、个体条件期望、敏感性分析、NLP 令牌、NLP LOCO 等。此外,您还可以从此视图中下载 LIME、Shapley 和原始(内核 SHAP)Shapley 原因码的 CSV 文件以及决策树替代模型规则的文本和 Python 文件。
Driverless AI 用于模型解释的技术和方法可通过插件(Python 代码片段)进行扩展。请参阅 https://github.com/h2oai/driverlessai-recipes/tree/rel-1.9.1/explainers,了解更多关于 MLI 自定义插件 的信息。
本章介绍用于常规实验和时间序列实验的 Driverless AI 机器学习可解释性 (MLI)。更多信息,请参阅以下各节:
其他资源
点击此处
以下载 MLI 参考手册。点击此处 以访问 H2O.ai MLI 资源资料库。此资料库中包含各种 MLI 技术应用或改造的材料,以供数据科学家使用。
点击此处 以访问 H2O.ai 机器学习可解释性自定义插件资料库。
点击此处 以观看 H2O Driverless AI 机器学习可解释性演示视频。
请注意
此版本不支持在 1.8.9 及更低版本中运行的实验。1.8.9 版及更低版本中的实验不支持 MLI 迁移。
图像或多类别时间序列实验不支持 MLI。
MLI 无需互联网连接便可在当前模型上运行。
若需指定 MLI 使用的特定 H2O 实例的端口,可使用
h2o_port
config.toml 设置。您还可通过h2o_ip
设置指定 MLI 使用的 IP 地址。