選取您的 Cookie 偏好設定

我們使用提供自身網站和服務所需的基本 Cookie 和類似工具。我們使用效能 Cookie 收集匿名統計資料,以便了解客戶如何使用我們的網站並進行改進。基本 Cookie 無法停用,但可以按一下「自訂」或「拒絕」以拒絕效能 Cookie。

如果您同意,AWS 與經核准的第三方也會使用 Cookie 提供實用的網站功能、記住您的偏好設定,並顯示相關內容,包括相關廣告。若要接受或拒絕所有非必要 Cookie,請按一下「接受」或「拒絕」。若要進行更詳細的選擇,請按一下「自訂」。

模型可解釋性

焦點模式
模型可解釋性 - Amazon SageMaker AI

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

Amazon SageMaker Clarify 提供各種工具,協助說明機器學習 (ML) 模型如何進行預測。這些工具可協助機器學習 (ML) 建模者、開發人員以及其他內部利害關係人在部署之前瞭解整個模型特性,並在部署模型之後對模型提供的預測進行偵錯。

關於機器學習 (ML) 模型如何達到預測的透明度對於消費者和監管機構來說也是至關重要的。如果他們要接受出自於模型的決定,他們需要信任模型預測。SageMaker Clarify 使用與模型無關的特徵歸因方法。您可以使用此特徵來瞭解模型在訓練後進行預測的原因,並在推論期間提供每個執行個體的說明。該操作包括 SHAP 的可擴展性和高效能操作。這是基於合作賽局理論領域的夏普利值概念,該值為每個特徵分配一個特定預測的重要性值。

Clarify 會產生部分依賴圖 (PDP),顯示特徵對機器學習模型預測結果的邊際影響。部分的依賴性有助於解釋特定一組輸入特徵的目標回應。它也支援電腦視覺 (CV) 和自然語言處理 (NLP) 可解釋性,使用與表格式資料說明相同的 Shapley 值 (SHAP) 演算法。

機器學習環境中的可解釋性特徵是什麼? 可以將可解釋性視為為什麼問題的答案,該問題可以幫助人類了解預測的原因。在機器學習 (ML) 模型的環境中,您可能有興趣回答以下問題:

  • 為什麼該模型預測了負面結果,例如特定申請人拒絕貸款?

  • 模型如何做出預測?

  • 為什麼模型做出不正確的預測?

  • 哪些特徵對模型行為的影響最大?

您可以使用說明用以稽核和符合法規需求、建立對模型的信任以及支援人為決策,以及偵錯和改善模型效能。

滿足人類對機器學習 (ML) 推論性質和結果的理解需求是可解釋性所需的關鍵。哲學和認知科學學科的研究表明,人們特別關心對比性解釋,或解釋為什麼事件 X 發生而不是其他未發生的事件 Y 發生。在這裡,X 可能是未預期或令人驚訝的事件,Y 對應到以其現有作為心理模型基準的期望。請注意,對於同一個事件 X,不同的人可能會根據他們的觀點或心理模型 Y 尋求不同的可解釋性。在可解釋的 AI 的環境中,您可以將 X 視為解釋完的範例,Y 作為通常選擇代表資料集中資訊不足或平均範例的基準。有時候,例如,在對影像進行機器學習 (ML) 建模的情況下,基準可能是隱性的,其中都是相同顏色像素的影像可以用作基準。

範例筆記本

Amazon SageMaker Clarify 提供以下模型可解釋性的範例筆記本:

此筆記本已透過驗證,僅可在 Amazon SageMaker Studio 中執行。如果您需要有關如何在 Amazon SageMaker Studio 中打開筆記本的說明,請參閱建立或開啟 Amazon SageMaker Studio Classic Notebook。如果系統提示您選擇核心,請選擇 Python 3 (資料科學)

下一個主題:

夏普利值

上一個主題:

廣義熵 (GE)
隱私權網站條款Cookie 偏好設定
© 2025, Amazon Web Services, Inc.或其附屬公司。保留所有權利。