第1部分概述1。可解释人工智能的定义
伴随着机器学习和人工智能技术在各个领域的快速发展和应用,向用户解释算法输出的结果变得非常重要人工智能的可解释性是指人们能够理解人工智能模型在其决策过程中做出的选择,包括决策的原因,方法和内容简单来说,可解释性就是把人工智能从黑盒变成白盒
2.研究的作用
可解释性是人工智能在实际应用中面临的最重要的障碍之一人们无法理解或解释为什么人工智能算法能取得如此好的性能
1.可解释的人工智能可以打破研究和应用之间的鸿沟,加速先进人工智能技术的商业应用:出于安全,法律,伦理等方面的原因,一些管制较多领域的场景,比如医疗,金融等,将限制无法解释的人工智能技术的使用
2.通过对模型所作决策的可解释性理解,找出产生偏差的原因,从而提高模型的性能。
3.有助于人工智能模型的使用:可解释性可以帮助用户理解人工智能做出的决策,让用户更有效地使用模型,也可以纠正用户在使用模型时不知道算法做什么而导致的错误操作,
4.解释性AI可以增加用户的信任度:用户知道AI决策的依据后,会更加信任AI制定的政策。
3.应用区域
1.学术研究:可解释性人工智能可以帮助研究人员更好地理解模型做出的决策,从而发现模型做出的决策的偏差,修正错误,提高模型的性能,解释性算法可以找出算法的弱点,加入噪声促进算法的鲁棒性,比如对抗性学习,解释性可以保证只有有意义的变量才能推断出输出,使得决策过程中的因果关系更加真实。
2.医疗领域:可解释人工智能可以根据输入的数据症状或CT图像给出可解释的预测结果,辅助医生诊断如果模型无法解释,就无法确定模型如何决策,医生也不敢轻易使用人工智能提供的结果进行诊断
利用人工智能进行医疗领域的辅助诊断
3.金融领域:金融领域也是一个非常依赖可解释性的行业领域人工智能做出的投资决策需要有很强的解释力,否则金融从业者使用模型得出的决策结果不会感到舒服,可解释人工智能在金融领域的另一个常用应用方向是检测金融欺诈,模型可以发现欺诈行为并提供决策的解释,从而帮助监管者打击犯罪
4.信息安全:通过XAI技术获得的模型的可解读信息可以加入对抗环境,从而更有效地攻击模型,找出模型安全性差的环节并修复,利用XAI技术提高系统的安全性。
5.专家系统:专家系统是一种具有特殊知识和经验的计算机智能程序系统它使用知识表示和推理技术来模拟通常可以由领域专家解决的复杂问题专家系统也需要强有力的解释
4.XAI的目标
解释性人工智能有很多解释性目标但由于可解释性的范围太广,在不同的应用场景下需要解释的内容也不一样,甚至针对不同的用户受众需要解释的内容也不一样,所以目前XAI领域还没有统一的评价标准体系
1.信息性:信息性是最常用的解释目标,拥有最广泛的受众几乎所有的受众都可以使用这个解释性目标使用人工智能模型的最终目的是支持决策因此,人工智能需要提供大量关于决策目标的信息,以将用户的决策与模型给出的解决方案联系起来,让用户了解模型的内部作用,更好地使用模型
2.可移植性:这是第二个最常用的目标一般的应用程序受众是领域专家和从事数据科学的人可移植性表示人工智能方法在不同的场景和数据下能否得到很好的应用,可移植性高的算法应用场景更广解释性人工智能可以提高算法的可移植性,因为它可以清晰地显示算法的决策过程和可能影响模型应用的边界值,有助于用户在不同场景下应用算法
3.可访问性:第三个最常用的目标是可访问性,主要受众是产品开发团队和用户可及性是指算法是否可以由非专业人士解释,确保非专业人士能够理解算法的决策过程,在提供改进算法的建议时降低用户的技术准入门槛,确保用户能够参与到改进或开发人工智能模型的过程中,使用户能够更专注于提升自身体验
此外,可解释人工智能的目标包括可信度,因果性,可信度,公平性,隐私保护等。
PART.02主要实现方法
目前,可解释人工智能的实现方式主要有两种:一种是可解释模型,即设计的机器学习模型具有可解释能力,另一种是模型可解释技术,用模型可解释技术来解释不可解释的机器学习模型。
1.可解释模型
可解释模型的可解释性可以分为三个层次:可模拟性,可分解性和算法透明性可模拟性是指整个模型可以被人类直接模拟和评价,可分解性意味着模型的所有部分都可以被解释,算法透明意味着用户可以理解模型从任何输入数据生成任何给定输出的过程通常需要数学分析来获得算法透明性
典型的可解释模型包括线性回归,决策树,KNN,基于规则的学习等。
1.线性回归:线性回归假设自变量和因变量之间存在线性关系,通过计算得到它们之间的线性关系这种方法可以很好地解释模型的三个层次,但还需要借助模型可解释技术才能更好地解释线性回归模型提出较早,使用时间较长,因此其解释模型结果的方法比较成熟,包括统计方法和可视化方法当然,线性回归的可解释性也存在一些潜在的问题,比如不可观测的异质性,不同模型之间的无效比值等等另外,要保持线性回归模型的可模拟性和可分解性,模型不能太大,变量必须让用户理解
线性回归
2.决策树:决策树是一种针对回归和分类问题的分层决策结构,可以满足所有层次的可解释模型虽然决策树可以拟合所有层次,但决策树的个体特征会使其倾向于某一层次,这与决策环境密切相关决策树具有很高的可解释性,因此在非计算机和人工智能领域的应用由来已久所以其他领域已经有很多关于决策树可解释性的成熟著作可供参考,而决策树的泛化能力较差,不适合需要平衡预测精度的场景
决策树算法
3.KNN:即K近邻算法,选取测试样本的K个近邻类别中最多的一个作为样本类别的预测结果KNN的模型可解释性取决于要素的数量,邻域的数量以及用于测量样本间相似性的距离函数如果k的值特别大,KNN的模拟将会降低,而如果特征或距离函数复杂,KNN模型的可分解性将会受到限制
KNN算法
4.基于规则的学习:基于规则的学习使用数据集进行训练,并生成规则来表示模型规则往往用简单的if—then形式或者简单形式的排列组合来表示,具体的表示方法如图5所示基于规则的学习是一种可解释的模型,它通常通过生成解释规则来解释复杂的模型它的可解释性非常好,因为它与人类通常的思维模式相似,易于理解和解释对应规则学习的泛化能力差基于规则的学习广泛用于专家系统的知识表示但需要注意的是,模型规则的数量会提高模型的性能,但同时会降低可解释性规则的长度不利于可解释性为了增加可解释性,我们只需要放宽规则
基于规则的学习2。模型可解释技术
当机器学习模型本身不是可解释模型时,就需要使用模型可解释技术来解释其决策模型可解释技术的目的是展示现有模型如何从给定的输入中生成可预测和可理解的信息目前,常用的模型解释方法主要有特征重要性方法和基于案例的方法
1.特征重要性方法
重要性方法主要分为基于扰动的方法和基于梯度的方法。
基于扰动的方法
用一个或一组输入特征扰动输入,然后观察它与原始输出的差异,得到特征重要性基于扰动的方法可以直接估计特征的重要性,使用简单,具有通用性可是,一次只能干扰一个或一组特征,导致算法速度慢此外,一些复杂的机器学习模型是非线性的,其解释受所选特征的影响很大经典的基于扰动的方法是莱姆和SHAP
LIME,全称局部可解释模型不可知解释,是局部可解释模型的不可知解释其原理是在需要解释的模型的基础上设计一个新的简化的可解释模型,然后利用这个具有可解释特征的简单模型进行适配,从而逼近复杂模型的效果,从而对复杂模型起到解释的作用
6 |石灰算法示例
SHAP,全称Shapley加法解释,是受Shapley值启发的加法解释模型其核心思想是计算特征对模型输出的贡献,然后从全局和局部两个层面解释黑箱模型SHAP是实际使用中最常用的方法,操作简单由于这种方法可以得到各个特征对模型的影响,所以主要用于特征工程或辅助数据采集
SHAP算法
基于梯度的算法
基于梯度的基本方法只计算输出相对于输入的梯度,比摄动法效率高例如,DeepLIFT方法将每个神经元的激活与其参考激活进行比较,并根据差异为每个输入分配一个分数
2.基于实例的方法
基于实例的方法使用特定的实例作为输入来解释机器学习模型,因此它们通常只提供局部解释基于实例的方法是模仿人类推理而提出的,人类在推理时通常使用相似的案例来提供解释常用的方法是反事实解释和对抗性攻击
反事实解释可以理解为从期望结果反向输入,从而获得模型的解释这种方法利用类似的情况,对机器学习模型的当前输入实例进行不同的预测
对抗性攻击3。解释性深度学习
深度学习模型一直被认为是黑盒模型,模型本身是不可解释的,必须用模型可解释技术来解释解释差异已经成为深度学习发展的最大障碍之一常用的解释深度学习的方法有事后局部解释和特征关联技术根据深度学习方法的不同类型,以下方法分为多层神经网络,卷积神经网络和递归神经网络,分别介绍其可解释的方法
1)多层神经网络:在推断变量之间的复杂关系方面很有效,但可解释性很差常用的可解释方法包括模型简化,特征相关性估计,文本解释,局部解释和模型可视化(19)(20)(21)
2)卷积神经网络:卷积神经网络主要用于图像分类,物体检测和案例分割虽然其复杂的内在联系使得模型很难解释,但对于人类来说,图形可以更好地理解,因此CNN可以比其他深度学习模型更好地解释它一般有两种可解释的方法:一种是将输出映射到输入空间,看哪些输入会影响输出,从而了解模型的决策过程,二是深入网络内部,从中间层的角度解释外部(22)(23)(24)
3)递归神经网络:RNN广泛应用于固有序列数据的预测,如自然语言处理,时间序列分析等RNN的可解释方法很少,主要分为两类:一类是用特征相关性解释方法来理解RNN模型学到了什么,第二种是使用本地解释和修改RNN框架来解释决策(25)(26)
第三部分未来研究方向
这里简单介绍一下XAI未来的问题和可能的研究方向。
1.模型可解释性和性能之间的权衡
在提高模型性能的同时,往往会降低模型的可解释性,因为性能往往与算法的复杂度捆绑在一起,模型越复杂,可解释性越差准确性和可解释性之间的关系如图9所示虽然绩效和可解释性之间的负相关不可逆转,但我们仍然可以通过升级可解释性方法使其更加精确来减缓负相关
可解释性和准确性之间的关系2。统一的可解释指标
如1.3节所述,可解释人工智能领域目前没有统一的评价指标这将是可解释人工智能发展的一大障碍XAI要可持续发展,首先要统一评价指标幸运的是,一些学者已经开始关注这个问题,研究如何用一个统一的标准来判断可解释性
3.深度学习模型的可解释性
在2.2节深度学习的模型可解释性技术中提到,深度学习一直被认为是一个黑盒模型在实际应用中,相当于传统机器学习方法的阻力很大,深度学习的可解释性差这不仅限制了深度学习在更多控制领域的应用,也影响了模型的优化不知道深度学习模型做决策的原因,很难有很好的改进如果深度学习模型能够得到很好的解释,将会使深度学习发展得更快
4.XAI在信息安全中的应用
目前XAI在信息安全中的应用很少,但可能是未来的一个重要应用场景XAI可以通过模型的输入输出推断出模型的数据和函数,所以可以用来窃取模型的数据和函数当然,从另一个角度来看,可以将XAI技术获得的信息加入到对抗环境中,更有效地攻击模型,发现并修复模型安全性差的链接,从而利用XAI技术提高系统的安全性
5.XAI可以支持跨学科的信息交流。
XAI可以有效地向没有专业背景的用户解释模型决策,也就是1.3节提到的可访问性XAI还可以进行关键的数据研究,也就是多学科的整合,对不同的受众进行他们需要了解的解释XAI可以促进不同受众和学科之间的信息交流
第4部分总结
可解释人工智能的目标是使人们能够理解人工智能模型的决策过程,从而更好地使用和改进模型,增加用户的信任度,拓展人工智能技术的应用场景深度学习算法的不可解释性是限制深度学习发展的一个重要问题,因此可解释性研究将是未来深度学习的一个重要研究方向此外,可解释的人工智能还可以应用于信息安全领域,它还可以促进跨学科的知识交流解释性人工智能刚刚起步,研究前景非常广阔相信在不久的将来,可解读的人工智能将引领人工智能技术的新突破
参考资料:
孔法罗尼埃内R,科巴L,瓦格纳B,等,《可解释人工智能的历史透视》( J)Wiley跨学科评论:数据挖掘和知识发现,2021,11:e1391。
可解释的人工智能(XAI):面向负责任的人工智能的概念,分类学,机遇和挑战(J)信息融合,2020,58: 82—115
于斯曼J,Dejaeger K,Mues C,等.基于决策表,树和规则的预测模型可理解性的经验评估(J).决策支持系统,2011,51(1): 141—154。
Caruana R,Lou Y,Gehrke J,等.医疗保健的智能模型:预测肺炎风险和住院30天再入院(C)//第21届ACM SIGKDD知识发现和数据挖掘国际会议论文集纽约:美国计算机学会,2015年:1721—1730
Miller T,Howe P,Sonenberg L .可解释的人工智能:当心运行精神病院的囚犯(C)//人工智能国际联合会议论文集:第36卷门洛帕克:AAAI出版社,2017:36—40
应用逻辑回归:第398卷(M)纽约:约翰·威利amp儿子们,2013
逻辑回归:为什么我们不能做我们认为我们能做的事,以及我们能做些什么欧洲社会学评论,2010,26(1): 67—82
简化决策树(J)国际人机研究杂志,1987,27(3): 221—234
用决策树进行数据挖掘:理论和应用:第69卷(M)新加坡:世界科学,2014年
《电力系统实时暂态稳定预测的决策树方法》,北京:电力系统科学出版社,2003年第1期IEEE电力系统汇刊,1994,9(3): 1417—1426
努内斯H,安古洛C,卡塔拉a支持向量机的基于规则的学习系统(J)神经处理快报,2006,24(1):1—18
机器学习和规则归纳的应用(J)美国计算机学会通讯,1995年,38(11): 54—64
我为什么要相信你解释任何分类器的预测(C)//第22届ACM SIGKDD知识发现和数据挖掘国际会议论文集纽约:ACM,2016: 1135—1144
解释模型预测的统一方法(C)//神经信息处理系统进展会议录剑桥:麻省理工学院出版社,2017: 4765—4774
Ribeiro M T,Singh S,Guestrin C.《无其他信息:通过识别预测不变性进行模型不可知的解释》( C)//第30届神经信息处理系统会议录剑桥:麻省理工学院出版社,2016年
Shrikumar A,Greenside P,Kundaje A .通过传播激活差异学习重要特征(C)//第34届机器学习国际会议论文集纽约:PMLR,2017:3145—3153
Sharma S,Henderson J,Ghosh J. Certifai:对人工智能模型的健壮性,透明性,可解释性和公平性的反事实解释(J)arXiv预印本arXiv:1905.07857,2019
神经网络的有趣性质(C)//第二届学习表征国际会议论文集纽约:柯伦咨询公司,2013年
Che Z,Purushotham S,Khemani R,等. ICU预后预测的可解释深度模型(C)//美国医学信息学协会(AMIA)年度研讨会:第2016卷纽约:AMIA,2016,371—380
Montavon G,Lapuschkin S,Binder A,等,《用深度泰勒分解解释非线性分类决策》( J)模式识别,2017,65: 211—222。
学习如何解释神经网络:模式网络和模式分布(C)//学习表征国际会议论文集纽约:柯伦咨询公司,2017年
Bach S,Binder A,Montavon G,等.通过逐层相关性扩展对非线性分类器决策的逐像素解释(J).PloS One,2015,10: e0130140。
周B,科斯拉A,Lapedriza A,等.识别性定位的深度特征学习(C)//IEEE计算机视觉与模式识别会议录纽约:IEEE,2016:2921—2929
泽勒·M·D,泰勒·G·W,弗格斯·r .用于中高级特征学习的自适应反进化网络(C)//2011年国际计算机视觉会议论文集纽约:IEEE,2011: 2018—2025
Arras L,Montavon G,Müller K R,等,《情感分析中当前神经网络预测的解释》( C)//第八届主观性,情感和社会媒体分析计算方法研讨会论文集纽约:计算语言学协会,2017:159—168
Choi E,Bahadori M T,Sun J,等. Retain:使用反向时间注意机制的可解释的医疗保健预测模型(C)//神经信息处理系统进展会议录剑桥:麻省理工学院出版社,2016: 3504—3512
可解释的人工智能阿灵顿:国防高级研究计划局(DARPA),2017年
Orekondy T,Schiele B,Fritz M .山寨网:窃取黑盒模型的功能(C)//IEEE/CVF计算机视觉和模式识别会议录纽约:IEEE,2019:4954—4963
关键数据研究:介绍(J)大数据放大器,社会,2016,3(2): 2053951716674238
。