加入VIP

可解释人工智能(XAI):企业就绪的人工智能指南

文章目录

  • 什么是XAI?
  • 为什么它现在是相关的?
  • 它是如何工作的?
  • 可解释的模型,如决策树或Naive Bayes
  • 解释黑盒模型
  • 其优点是什么?
  • XAI如何服务于人工智能的伦理?
  • 提供XAI的公司有哪些?

XAI-1024x490-1

根据普华永道关于XAI的报告,到2030年,AI有15.7万亿美元的机会。然而,随着人工智能工具变得越来越先进,更多的计算是在人类难以理解的 “黑箱 “中完成的。这种缺乏可解释性的情况无法满足人们对透明度、信任和对预期商业结果的良好理解的需求。可解释性是企业采用人工智能的关键,因为人们不容易相信一个他们没有彻底理解的机器建议。

可解释的人工智能(XAI)来解决这个黑盒子问题。它解释了模型是如何得出具体结论的,以及算法的优势和劣势是什么。XAI拓宽了人工智能模型的可解释性,帮助人类理解其决策的原因。

什么是XAI?

XAI是指算法解释他们为什么得出特定结果的能力。虽然基于人工智能的算法帮助人类在业务上做出更好的决定,但人类可能并不总是了解人工智能是如何得出这个结论的。XAI旨在解释这些算法是如何得出这些结论的,以及哪些因素影响了这个结论。在维基百科中,XAI被定义为:

可解释的人工智能(XAI)指的是在应用人工智能技术(AI)时的方法和技术,以便人类专家能够理解解决方案的结果。它与机器学习中的 “黑匣子 “概念形成鲜明对比,即使是他们的设计者也无法解释为什么人工智能会得出一个特定的决定。

为什么它现在是相关的?

短时间内,XAI创造了一个透明的环境,用户可以理解和信任AI做出的决定。

企业使用人工智能工具来提高他们的业绩,做出更好的决定。然而,除了从这些工具的输出中受益,了解它们的工作方式也是至关重要的。由于缺乏可解释性,企业无法做出相关的 “what-if “场景,并产生信任问题,因为他们不了解人工智能是如何达到一个特定的结果。

Gartner指出,缺乏可解释性并不是一个新问题。然而,人工智能工具变得更加复杂,以在企业中提供更好的结果,这个问题现在引起了更多关注。这些更复杂的人工智能工具是在一个 “黑盒子 “中执行的,很难解释其决策背后的原因。

虽然人类可以解释较简单的人工智能模型,如决策树或逻辑回归,但更精确的模型如神经网络或随机森林是黑箱模型。黑箱问题是机器学习算法的主要挑战之一。这些由人工智能驱动的算法提出了具体的决定,但很难解释这一决定背后的原因。

XAI现在很有意义,因为它向我们解释了黑箱人工智能模型,帮助人类感知人工智能模型的工作原理。除了具体决策的推理,XAI还可以解释不同的案例,以得出不同的结论和模型的优势/弱点。随着企业更好地理解人工智能模型以及他们的问题是如何解决的,XAI在企业和人工智能之间建立了信任。因此,这项技术有助于企业充分使用人工智能模型的潜力。

它是如何工作的?

XAI_vs_TodaysAI Source: DARPA

今天的人工智能技术通过受益于不同的模型为企业提供决策或建议。然而,用户不容易察觉到结果是如何实现的,或者为什么模型没有提供不同的结果。除了提供准确和具体的结果,XAI还使用了一个可解释的模型,并有一个解释界面,以帮助用户理解模型的工作原理。我们可以将XAI归为两种类型:

可解释的模型,如决策树或Naive Bayes

这些模型很简单,可以快速实现。这些算法由简单的计算组成,甚至可以由人类自己完成。因此,这些模型是可解释的,人类可以很容易地理解这些模型如何得出一个特定的决定。为了观察该具体决策背后的原因,用户可以快速分析算法,找到不同输入的影响。

解释黑盒模型

解释更复杂的模型,如人工神经网络(ANN)或随机森林,则更为困难。由于它们的复杂性和难以理解其输入和预测之间的关系,它们也被称为黑箱模型。

企业更普遍地使用这些模型,因为它们在大多数商业应用中比可解释的模型性能更好。为了解释这些模型,XAI方法涉及建立一个具有数据可视化和情景分析功能的解释界面。这种界面使这些模型更容易被人类理解。这种界面的特点包括

视觉分析
Google_VisualAnalysis_XAI-800x554-1

Source: Google Cloud

XAI界面将不同数据点的输出可视化,以解释特定特征与模型预测之间的关系。在上面的例子中,用户可以观察不同数据点的X和Y值,并从颜色代码中了解它们对推断绝对误差的影响。在这个具体的图片中,X轴所代表的特征似乎比Y轴所代表的特征更能决定结果。

情景分析

Fiddler_ScenarioAnalysis_XAI

Source: Fiddler Labs

XAI对每个特征进行分析,并分析其对结果的影响。通过这种分析,用户可以创建新的场景,了解改变输入值如何影响输出。在上面的例子中,用户可以看到对预测贷款风险有积极/消极影响的因素。

其优点是什么?

XAI的目的不是提高性能,而是解释具体的决定或建议是如何达成的。它帮助人类了解人工智能如何/为何以某种方式行事,并在人类和人工智能模型之间建立起信任。XAI的主要优点是:

  • 提高可解释性和透明度:企业可以更好地理解复杂的人工智能模型,并感知它们在特定条件下以某种方式行事的原因。即使是黑盒模型,人类也可以使用解释界面来理解这些人工智能模型是如何实现某些结论的。
  • 更快的采用:由于企业可以更好地理解人工智能模型,他们可以在更重要的决策中信任它们
  • 改进调试:当系统工作时出现意外,XAI可以用来识别问题,帮助开发人员调试问题。
  • 启用监管要求的审计

XAI如何服务于人工智能的伦理?

随着人工智能越来越多地融入我们的生活,人工智能伦理的重要性也在增加。然而,高级人工智能模型的复杂性和缺乏透明度使人们对这些模型产生怀疑。在不了解它们的情况下,人类无法决定这些人工智能模型是否对社会有益、值得信赖、安全和公平。因此,人工智能模型需要遵循特定的道德准则。Gartner将人工智能的道德规范归纳为五个主要部分:

  • 可解释性和透明性
  • 以人为本,对社会有益
  • 公平
  • 安全性和安全性
  • 负责任

XAI的主要目的之一是帮助AI模型为这五个组成部分服务。人类需要对人工智能模型有深刻的理解,以了解它们是否遵循这些组成部分。人类无法信任一个不知道如何工作的人工智能模型。通过了解这些模型的工作方式,人类可以决定人工智能模型是否遵循这五个特征。

提供XAI的公司有哪些?

大多数XAI供应商提出不同的解释界面,以澄清复杂的AI模型。一些例子的供应商包括:

  • 谷歌云平台:谷歌云的XAI平台使用你的ML模型对每个因素进行评分,以了解每个因素对预测的最终结果的贡献。它还可以操作数据以创建场景分析
  • Flowcast:这个基于API的解决方案旨在通过集成到不同的公司系统来揭开黑箱模型。Flowcast创建模型以澄清不同模型的输入和输出值之间的关系。为了实现这一目标,Flowcast依靠转移学习和持续改进。
  • Fiddler实验室:这家美国创业公司为用户提供不同的图表来解释人工智能模型。这些图表包括不同场景之间的相似性水平。通过使用现有的数据,Fiddler分析了每个特征的影响,并创造了不同的假设场景。
微海报

标签