在可解释AI领域,存在两个术语,分别是Interpretable和Explainable,这两个术语在英文里本身就是同义词,表示“capable of being understood”。不同文献对这两个词的定义都各有不同,有一些文献不区分这两个词。
Interpretability表示模型固有的性质,是否一个模型能够解释因果关系,这是一个更加抽象、宏伟的先验概念(也就是在事情发生之前我就知道)。“有因必有果,你的报应就是我。”
Explainability可以理解为具体的某一个模型中,模型结构、模型参数、数据输入等是如何得到数据输出的。这是一个更加形象、具体的后验概念(也就是事情发生之后,我想着怎么去解释,让别人理解我)。