348页告诉你可解释的深度学习AI:方法和挑战,2023新书竟然给出了我一项不到的答案

近年来,深度学习已成为人工智能(AI)研究中最受欢迎的话题之一。它是机器学习的一个子集,使用具有许多层的人工神经网络从数据中学习并产生基于该学习的输出。深度学习的最终目标是使机器具有像人类一样的分析和学习能力,并识别各种类型的数据,例如文本、图像和声音。
然而,尽管深度学习模型在各个领域取得了巨大的成功,仍然存在一个根本性问题:它们是黑匣子。这意味着这些模型如何得出输出仍然不透明,很难确定哪些输入特征具有影响力以及这些模型如何得出结论。这种缺乏透明度可能会在需要可解释性和问责制的各种应用程序中造成问题,例如金融或医疗保健。
例如,让我们考虑一个金融欺诈检测系统,该系统通过使用深度学习模型识别出一小部分进行可疑活动的用户。尽管模型的输出似乎很有前途,但业务部门无法对结果进行操作,因为他们不理解模型是如何得出结果的。如果没有明确的证据,该部门无法向监管机构证明其行动的合理性,也不能自信地评估模型预测的准确性。同样,在医学诊断中,深度学习模型可能会基于患者的检测数据检测出结核病的迹象;但是,如果不了解模型决策过程背后的原因,医生可能会犹豫是否要遵循其推荐,导致延误或错误的诊断。
幸运的是,可解释的AI(XAI)方法提供了解决此问题的方法。XAI指的是旨在解释机器学习模型如何做出决策的一组技术。这些技术帮助我们了解模型为什么做出某些决策或提供特定输出,从而更容易地识别模型性能中的错误、偏见或其他问题。本质上,XAI旨在提供对深度学习模型黑盒的透明度和洞察力。
《可解释的深度学习AI》是一个最全面的XAI资源之一,由王超丽和他的同事撰写,介绍了该领域的最新和原始的贡献。这本348页的书提供了解释深度学习模型的方法论框架,包括一组工具和方法来帮助我们理解其复杂的输出。此外,作者还介绍了几个案例研究,展示了书中讨论的技术如何应用于金融和医疗保健等各个领域。
例如,作者描述了本地解释方法(例如局部可解释模型无关说明)如何帮助解释深度学习模型做出的单个预测,在需要证明输出并向用户保证模型可靠性的情况下尤其有用。另一方面,全局解释方法(例如Shapley加法说明)使我们能够解释深度学习模型的整体行为并了解不同输入特征的相对重要性

348页《可解释的深度学习AI》视频详细讲解:
【2023新书】什么是可解释的深度学习AI?这本书刚发布,竟然给出了我意想不到的答案——深度学习/大语言模型/知识图谱
