Amazon SageMaker Erläutern der Erklärbarkeit des Modells - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Amazon SageMaker Erläutern der Erklärbarkeit des Modells

Amazon SageMaker Clarif-Modelle, die Ihnen helfen, zu erklären, wie Machine Learning (ML) -Modelle erstellen. Diese Tools können ML-Modellierern und -Entwicklern sowie anderen internen Stakeholdern helfen, die Modelleigenschaften vor der Bereitstellung als Ganzes zu verstehen und Vorhersagen zu debuggen, die das Modell nach seiner Bereitstellung liefert. Transparenz darüber, wie ML-Modelle zu ihren Prognosen gelangen, ist auch für Verbraucher und Aufsichtsbehörden von entscheidender Bedeutung. Sie müssen den Modellvorhersagen vertrauen, wenn sie die auf ihnen basierenden Entscheidungen akzeptieren wollen. SageMaker Clarify verwendet einen modellunabhängigen Feature-Attribution-Ansatz. Sie können dies verwenden, um zu verstehen, warum ein Modell nach dem Training eine Vorhersage getroffen hat, und um während der Inferenz eine Erklärung pro Instanz zu liefern. Die Implementierung beinhaltet eine skalierbare und effiziente Implementierung vonSHAPaus. Dies basiert auf dem Konzept eines Shapley-Werts aus dem Bereich der kooperativen Spieltheorie, der jedem Merkmal einen Wichtigkeitswert für eine bestimmte Vorhersage zuweist.

Clarify erstellt Diagramme zur partiellen Abhängigkeit (PDPs), die den marginalen Effekt zeigen, den Merkmale auf das vorhergesagte Ergebnis eines Modells für maschinelles Lernen haben. Eine teilweise Abhängigkeit hilft bei der Erklärung der Zielreaktion bei einer Reihe von Eingabe-Features. Es unterstützt auch die Erklärbarkeit sowohl Computer Vision (CV) als auch Natural Language Processing (NLP) unter Verwendung desselben Shapley Values (SHAP) -Algorithmus, der für tabellarische Datenerklärungen verwendet wird.

Was ist die Funktion einer Erklärung im Kontext des maschinellen Lernens? Eine Erklärung ist als Antwort auf eineWarum eine Fragedas hilft Menschen, die Ursache einer Vorhersage zu verstehen. Im Zusammenhang mit einem ML-Modell könnten Sie Fragen beantworten wie:

  • Warum hat das Modell ein negatives Ergebnis wie eine Kreditverweigerung für einen bestimmten Antragsteller vorhergesagt?

  • Wie trifft das Modell Vorhersagen?

  • Warum hat das Modell eine falsche Vorhersage getroffen?

  • Welche Merkmale haben den größten Einfluss auf das Verhalten des Modells?

Sie können Erklärungen für die Prüfung und Erfüllung behördlicher Anforderungen verwenden, um Vertrauen in das Modell aufzubauen und menschliche Entscheidungen zu unterstützen sowie die Modellleistung zu debuggen und zu verbessern.

Die Notwendigkeit, die Anforderungen an das menschliche Verständnis über die Art und die Ergebnisse der ML-Inferenz zu erfüllen, ist der Schlüssel zu der Art der erforderlichen Erklärung. Forschungen aus Disziplinen der Philosophie und der Kognitionswissenschaft haben gezeigt, dass Menschen sich besonders für kontrastive Erklärungen interessieren, oder Erklärungen, warum ein Ereignis X stattgefunden hat, anstatt eines anderen Ereignisses Y, das nicht eingetreten ist. Hier könnte X ein unerwartetes oder überraschendes Ereignis sein, das eingetreten ist, und Y entspricht einer Erwartung, die auf ihrem bestehenden mentalen Modell basiert, das alsGrundlinieaus. Beachten Sie, dass für dasselbe Ereignis X verschiedene Personen je nach ihrer Sichtweise oder ihrem mentalen Modell Y unterschiedliche Erklärungen suchen können. Im Zusammenhang mit erklärbarer KI können Sie sich X als das erläuterte Beispiel und Y als Grundlage vorstellen, die normalerweise als nicht informatives oder durchschnittliches Beispiel ausgewählt wird. im Dataset. Manchmal, zum Beispiel bei der ML-Modellierung von Bildern, kann die Grundlinie implizit sein, wobei ein Bild, dessen Pixel alle dieselbe Farbe haben, als Grundlinie dienen kann.

Beispiel-Notebooks

Amazon SageMaker Clarify bietet das folgende Beispielnotizbuch für die Erklärbarkeit des Modells:

  • Amazon SageMaker Verarbeitung klarstellen— Verwendung von SageMaker Erläutern Sie, ob Sie einen Verarbeitungsauftrag für die Erkennung von systematischen Abweichungen erstellen und Modellvorhersagen mit Feature-Zuordnungen erläutern Beispiele sind die Verwendung von CSV- und JSONlines-Datenformaten, das Einbringen eines eigenen Containers und das Ausführen von Verarbeitungsjobs mit Spark.

  • Bildklassifikationsalter SageMaker Klären– SageMaker Clarify bietet Ihnen Einblicke in die Klassifizierung von Bildern durch Ihre Computer Vision-Modelle.

  • Objekterkennungsmodelle erklären mit SageMaker Klären– SageMaker Clarify bietet Ihnen Einblicke, wie Ihre Computer Vision-Modelle Objekte erkennen.

Dieses Notizbuch wurde für die Ausführung in Amazon verifiziert SageMaker Nur im Studio. Wenn Sie Anleitungen zum Öffnen eines Notebooks in Amazon benötigen SageMaker StudioAmazon erstellen oder öffnen SageMaker Studio-Notebookaus. Wenn Sie aufgefordert werden, einen Kernel auszuwählen, wählen SiePython 3 (Data Science)aus.