翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
リソース
リファレンス
-
Adadi、Amina および Mohammed Berrada。2018。「ブラックボックスの中を覗く:説明可能な人工知能 (XAI) に関する調査。」 IEEE Access 6: 52138–52160.
-
Ancona、Marco、Enea Ceolini、Cengiz Oztireli、および Markus Gross。2018。「ディープニューラルネットワークの勾配ベースのアトリビューション手法のより良い理解に向けて。」 表現学習に関する国際会議 (ICLR) の議事録。arXiv:1711.06104
。 -
Dhamdhere、Kedar、Mukund Sundararajan、および Qiqi Yan。2018。「ニューロンはどれほど重要ですか?」 第36回 機械学習に関する国際会議 (ICML) の議事録。arXiv:1805.12233
。 -
Dua、Dheeru および Casey Graff。2019。UCI 機械学習リポジトリ [http://archive.ics.uci.edu/ml
]。カリフォルニア州アーバイン: カリフォルニア大学情報コンピュータサイエンス学部。) -
Kapishnikov、Andrei、Tolga Bolukbasi、Fernanda Viegas、および Michael Terry。2019。「XRAI: 地域を通じたアトリビューションの向上。」 コンピュータビジョンに関する IEEE/CVF 国際会議 (ICCV) の議事録: 4948—4957。arXiv:1906.02825
。 -
Kim、Been、Martin Wattenberg、Justin Gilmer、Carrie Cai、James Wexler、Fernanda Viegas、および Rory Sayres。2018。「特徴の帰属を超えた解釈可能性: 概念活性化ベクター (TCAV) による定量的テスト。」 arXiv:1711.11279
。 -
Lundberg、Scott M.、Gabriel G. Erion、および Su-In Lee。2019。「ツリーアンサンブルの一貫した個別化された特徴帰属。」 arXiv:1802.03888
。 -
Lundberg、Scott M、および Su-In Lee。2017。「モデル予測を解釈するための統一アプローチ。」 神経情報処理システム (NIPS) の進歩 30。arXiv:1705.07874
。 -
Rajpurkar、Pranav、Jian Zhang、Konstantin Lopyrev、および Percy Liang。2016。「SQuAD: テキストの機械理解に関する 100,000 以上の質問。」 arXiv:1606.05250
。 -
Ribeiro、Marco T.、Sameer Singh、および Carlos Guestrin。2016。「『どうしてあなたを信用すべきなの?』: あらゆる分類器の予測を説明します。」 KDD '16: 知識発見とデータマイニングに関する第22回 ACM SIGKDD 国際会議の議事録: 1135—1144。arXiv:1602.04938
。 -
Sundararajan、Mukund、Ankur Taly、および Qiqi Yan。2017。「ディープネットワークの公理的アトリビューション。」 第34回 機械学習に関する国際会議の議事録 70: 3319—3328。arXiv:1703.01365
。
外部ソフトウェアパッケージ
-
Captum: https://captum.ai/
その他の参考資料
-
Amazon SageMaker Clarify モデルの説明可能性 (SageMaker ドキュメント)
-
Amazon SageMaker Clarify リポジトリ
(GitHub) -
Molnar、Christoph。解釈可能な機械学習。ブラックボックスモデルを説明可能にするためのガイド
、2019年。