AmazonSageMakerErklärbarkeit des Modells klären - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

AmazonSageMakerErklärbarkeit des Modells klären

AmazonSageMakerClarify bietet Tools, mit denen Sie erklären können, wie Machine Learning (ML) -Modelle Vorhersagen treffen. Diese Tools können ML-Modellierern, Entwicklern und anderen internen Stakeholdern helfen, die Modellmerkmale als Ganzes vor der Bereitstellung zu verstehen und Vorhersagen, die vom Modell nach seiner Bereitstellung bereitgestellt werden, zu debuggen. Die Transparenz darüber, wie ML-Modelle zu ihren Vorhersagen gelangen, ist auch für Verbraucher und Aufsichtsbehörden von entscheidender Bedeutung. Sie müssen den Modellprognosen vertrauen, wenn sie die darauf basierenden Entscheidungen akzeptieren. SageMakerClarify verwendet einen modellunabhängigen Feature-Attribution-Ansatz. Sie können dies verwenden, um zu verstehen, warum ein Modell nach dem Training eine Vorhersage gemacht hat, und um während der Schlussfolgerung eine Erklärung pro Instanz zu geben. Die Implementierung beinhaltet eine skalierbare und effiziente Implementierung vonSHAPaus. Dies basiert auf dem Konzept eines Shapley-Wertes aus dem Bereich der kooperativen Spieltheorie, der jedem Feature einen wichtigen Wert für eine bestimmte Vorhersage zuweist.

Clarify erstellt partielle Abhängigkeitsplots (PDPs), die zeigen, welche marginalen Auswirkungen Merkmale auf das prognostizierte Ergebnis eines Machine Learning-Modells haben. Die partielle Abhängigkeit hilft, die Zielantwort angesichts einer Reihe von Eingabe-Features zu erklären. Es unterstützt auch die Erklärbarkeit von Computer Vision (CV) und Natural Language Processing (NLP) mit demselben Shapley Values (SHAP) -Algorithmus, der für Tabellendatenerklärungen verwendet wird.

Welche Funktion hat eine Erklärung im Kontext des maschinellen Lernens? Eine Erklärung kann als Antwort auf eineWarum fragedas hilft Menschen, die Ursache einer Vorhersage zu verstehen. Im Rahmen eines ML-Modells könnten Sie daran interessiert sein, Fragen zu beantworten wie:

  • Warum prognostizierte das Modell ein negatives Ergebnis wie eine Kreditablehnung für einen bestimmten Antragsteller?

  • Wie macht das Modell Vorhersagen?

  • Warum hat das Modell eine falsche Vorhersage gemacht?

  • Welche Merkmale haben den größten Einfluss auf das Verhalten des Modells?

Sie können Erklärungen verwenden, um regulatorische Anforderungen zu prüfen und zu erfüllen, Vertrauen in das Modell aufzubauen und menschliche Entscheidungsfindung zu unterstützen sowie die Modellleistung zu debuggen und zu verbessern.

Die Notwendigkeit, die Forderungen nach menschlichem Verständnis über die Art und die Ergebnisse von ML-Schlussfolgerungen zu erfüllen, ist der Schlüssel für die Art der erforderlichen Erklärung. Forschungen aus philosophischen und kognitionswissenschaftlichen Disziplinen haben gezeigt, dass sich die Menschen besonders um kontrastive Erklärungen oder Erklärungen darüber kümmern, warum ein Ereignis X statt eines anderen Ereignisses Y stattgefunden hat, das nicht aufgetreten ist. Hier könnte X ein unerwartetes oder überraschendes Ereignis sein, das passiert ist, und Y entspricht einer Erwartung, die auf ihrem bestehenden mentalen Modell basiert, das alsGrundlinieaus. Beachten Sie, dass für dasselbe Ereignis X verschiedene Personen je nach Sichtweise oder mentalem Modell Y unterschiedliche Erklärungen suchen. Im Kontext erklärbarer KI können Sie sich X als das erklärende Beispiel und Y als Basislinie vorstellen, die normalerweise als nicht informatives oder durchschnittliches Beispiel ausgewählt wird im Dataset. Manchmal, zum Beispiel bei der ML-Modellierung von Bildern, kann die Baseline implizit sein, wobei ein Bild, dessen Pixel alle die gleiche Farbe haben, als Baseline dienen kann.

Beispiel-Notebooks

AmazonSageMakerClarify stellt das folgende Beispiel-Notizbuch zur Erklärung des Modells zur Verfügung:

Dieses Notizbuch wurde für die Ausführung in Amazon überprüftSageMakerNur Studio. Wenn Sie Anleitungen zum Öffnen eines Notebooks in Amazon benötigenSageMakerStudio, sieheErstellen oder öffnen Sie ein Amazon SageMaker Studio-Notebookaus. Wenn Sie aufgefordert werden, einen Kernel auszuwählen, wählen SiePython 3 (Data Science)aus.