本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
资源
参考
-
Adadi, Amina and Mohammed Berrada. 2018。“Peeking inside the Box:关于可解释的人工智能调查 ()。” XAI IEEE 访问权限 6:52138—52160。
-
Ancona, Marco, Enea Ceolini, Cengiz Oztireli 和 Markus Gross. 2018。“Towards better understanding of gradient-based attribution methods for Deep Neural Networks.” 学习表现形式国际会议论文集 (ICLR)。arXiv:1711.06104
。 -
Dhamdhere, Kedar, Mukund Sundararajan, and Qiqi Yan. 2018。“How Important Is a Neuron?” 第三十六届国际Machine Learning会议论文集 (ICML)。arXiv:1805.12233
。 -
Dua, Dheeru and Casey Graff. 2019。 UCI机器学习存储库 [http://archive.ics.uci.edu/ml
]。Irvine, CA: University of California, School of Information and Computer Science. -
Kapishnikov, Andrei, Tolga Bolukbasi, Fernanda Viegas, and Michael Terry. 2019。“XRAI: 通过区域进行更好的归因。” IEEE/CVF国际计算机视觉会议论文集 (ICCV):4948—4957。arXiv:1906.02825
。 -
Kim, Been, Martin Wattenberg, Justin Gilmer, Carrie Cai, James Wexler, Fernanda Viegas, and Rory Sayres. 2018。“超越特征归因的可解释性:使用概念激活向量进行定量测试(TCAV)。” arXiv:1711.11279
。 -
Lundberg, Scott M., Gabriel G. Erion, and Su-In Lee. 2019。“Consistent Individualized Feature Attribution for Tree Ensembles.” arXiv:1802.03888
。 -
Lundberg, Scott M. and Su-In Lee. 2017。“A Unified Approach to Interpreting Model Predictions”. 神经信息处理系统的进展 (NIPS) 30. arXiv:1705.07874
。 -
Rajpurkar, Pranav, Jian Zhang, Konstantin Lopyrev, and Percy Liang. 2016 年。“SQuAD: 机器理解文本的 100,000 多个问题。” arXiv:1606.05250
。 -
Ribeiro, Marco T., Sameer Singh, and Carlos Guestrin. 2016 年。“'我为什么要信任你?' : 解释任何分类器的预测。” KDD '16:第二十二届知识发现与数据挖掘ACMSIGKDD国际会议论文集:1135—1144。arXiv:1602.04938
。 -
Sundararajan, Mukund, Ankur Taly, and Qiqi Yan. 2017。“Axiomatic Attribution for Deep Networks.” 第 34 届 Machine Learning 国际会议论文集 70:3319 —3328。arXiv:1703.01365
。
External software packages
Additional reading
-
Amazon SageMaker AI 阐明模型的可解释性(SageMaker AI 文档)
-
亚马逊 SageMaker AI 澄清存储库
(GitHub) -
Molnar, Christoph. Interpretable machine learning. A Guide for Making Black Box Models Explainable
, 2,019