模型翻译机

A.

模型翻译机是什么?

What

不仅要做出模型预测,还要给出模型产生预测结果的理由。知其然更要知其所以然

可解释机器学习(Intepretable Machine Learning,缩写为IML)的核心思想在于选择模型时,预测精度和可解释性并重,并尽量找到二者之间的最佳平衡


B.

问题产生的背景?

Backdrop

银行业的分析模型越来越多,所用算法也复杂多样

为了追求更高的模型精度,各种集成模型(如随机森林、XGBoost)和深层网络模型(如CNN、RNN、LSTM)成为热点算法,但由于模型过于复杂,这些算法已经成为无法理解的黑箱,业务上难以应用。


C.

有哪些特色和创新点?

Innovation

兼顾模型的准确性和可解释性

内在可解释(Intrinsic Interpretability)通过改良模型结构,增强模型灵活表征能力,提升模型的预测精度,如GAMxNN、RuleFit、Falling Rule List

事后可解释(Post-hoc Interpretability):保持复杂模型精度不变,通过事后的归因解析及可视化来获得模型的部分可解释性,如:LIME、SHAP


D.

能否带来真正业务价值?

Value

在某银行的基金推荐点击预测项目中与XGBoost算法精度相当,特征变量从100个大幅缩减为10个,同时能够可视化展示这些特征带来的量化影响显著提高了业务上的可用性

总体可解释性有助于业务人员理解模型的重要特征个体可解释性便于客户画像,进行个性化精准营销


可翻译分析模型

Translatable Analysis Model

可翻译分析模型

复杂的深层神经网络黑箱

xNN

GAMxNN

多种算法的实际应用

模型性能与特征数量对比

总体可解释性

个体可解释性

立即体验,开启数字化转型之旅 !