模型可解釋性 - Amazon SageMaker

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

模型可解釋性

Amazon SageMaker 澄清提供的工具可協助說明機器學習 (ML) 模型如何進行預測。這些工具可協助機器學習 (ML) 建模者、開發人員以及其他內部利害關係人在部署之前瞭解整個模型特性,並在部署模型之後對模型提供的預測進行偵錯。

關於機器學習 (ML) 模型如何達到預測的透明度對於消費者和監管機構來說也是至關重要的。如果他們要接受基於它們的決定,他們需要信任模型預測。 SageMaker 「澄清」使用與模型無關的特徵歸因方法。您可以使用此特徵來瞭解模型在訓練後進行預測的原因,並在推論期間提供每個執行個體的說明。該操作包括 SHAP 的可擴展性和高效能操作。這是基於合作賽局理論領域的夏普利值概念,該值為每個特徵分配一個特定預測的重要性值。

Clarify 會產生部分依賴圖 (PDP),顯示特徵對機器學習模型預測結果的邊際影響。部分的依賴性有助於解釋特定一組輸入特徵的目標回應。它還支持計算機視覺(CV)和自然語言處理(NLP)解釋,使用與表格數據解釋相同的 Shapley 值(SHAP)算法。

機器學習環境中的可解釋性特徵是什麼? 可以將可解釋性視為為什麼問題的答案,該問題可以幫助人類了解預測的原因。在機器學習 (ML) 模型的環境中,您可能有興趣回答以下問題:

  • 為什麼該模型預測了負面結果,例如特定申請人拒絕貸款?

  • 模型如何做出預測?

  • 為什麼模型做出不正確的預測?

  • 哪些特徵對模型行為的影響最大?

您可以使用說明用以稽核和符合法規需求、建立對模型的信任以及支援人為決策,以及偵錯和改善模型效能。

滿足人類對機器學習 (ML) 推論性質和結果的理解需求是可解釋性所需的關鍵。哲學和認知科學學科的研究表明,人們特別關心對比性解釋,或解釋為什麼事件 X 發生而不是其他未發生的事件 Y 發生。在這裡,X 可能是未預期或令人驚訝的事件,Y 對應到以其現有作為心理模型基準的期望。請注意,對於同一個事件 X,不同的人可能會根據他們的觀點或心理模型 Y 尋求不同的可解釋性。在可解釋的 AI 的環境中,您可以將 X 視為解釋完的範例,Y 作為通常選擇代表資料集中資訊不足或平均範例的基準。有時候,例如,在對影像進行機器學習 (ML) 建模的情況下,基準可能是隱性的,其中都是相同顏色像素的影像可以用作基準。

範例筆記本

Amazon SageMaker 澄清提供下列範例筆記型電腦,以解釋型號:

這款筆記型電腦已經過驗證,只能在 Amazon SageMaker 工作室中執行。如果您需要有關如何在 Amazon SageMaker Studio 中打開筆記本的說明,請參閱創建或打開 Amazon SageMaker 工作室經典筆記本。如果系統提示您選擇核心,請選擇 Python 3 (資料科學)