Erklärbarkeit des Modells - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Erklärbarkeit des Modells

Amazon SageMaker Clarify bietet Tools, mit denen erklärt werden kann, wie Modelle für Machine Learning (ML) Vorhersagen treffen. Diese Tools können ML-Modellierern und -Entwicklern sowie anderen internen Stakeholdern helfen, die Modellmerkmale vor der Bereitstellung als Ganzes zu verstehen und Vorhersagen zu debuggen, die das Modell nach der Bereitstellung liefert.

Transparenz darüber, wie ML-Modelle zu ihren Prognosen gelangen, ist auch für Verbraucher und Aufsichtsbehörden von entscheidender Bedeutung. Sie müssen den Modellvorhersagen vertrauen, wenn sie die auf ihnen basierenden Entscheidungen akzeptieren möchten. SageMaker Clarify verwendet einen modellunabhängigen Ansatz zur Feature-Zuordnung. Sie können dies verwenden, um zu verstehen, warum ein Modell nach der Schulung eine Vorhersage getroffen hat, und um während der Inferenz eine Erklärung pro Instanz zu geben. Die Implementierung beinhaltet eine skalierbare und effiziente Implementierung von SHAP. Dies basiert auf dem Konzept eines Shapley-Werts aus dem Bereich der kooperativen Spieltheorie, der jedem Merkmal einen Wichtigkeitswert für eine bestimmte Vorhersage zuweist.

Clarify erstellt partielle Abhängigkeitsdiagramme (PDPs), die zeigen, welche marginalen Auswirkungen Merkmale auf das vorhergesagte Ergebnis eines Modells für maschinelles Lernen haben. Die partielle Abhängigkeit hilft bei der Erklärung der Zielreaktion anhand einer Reihe von Eingabemerkmalen. Sie unterstützt auch die Erklärbarkeit von Computer Vision (CV) und Natural Language Processing (NLP) unter Verwendung desselben Shapley-Values-Algorithmus (SHAP), der auch für tabellarische Datenerklärungen verwendet wird.

Was ist die Funktion einer Erklärung im Kontext des maschinellen Lernens? Eine Erklärung kann man sich als Antwort auf eine Warum-Frage vorstellen, die Menschen hilft, die Ursache einer Vorhersage zu verstehen. Im Kontext eines ML-Modells könnten Sie an der Beantwortung von Fragen wie den folgenden interessiert sein:

  • Warum hat das Modell für einen bestimmten Antragsteller ein negatives Ergebnis vorhergesagt, z. B. eine Ablehnung eines Kredits?

  • Wie macht das Modell Vorhersagen?

  • Warum hat das Modell eine falsche Vorhersage getroffen?

  • Welche Merkmale haben den größten Einfluss auf das Verhalten des Modells?

Mithilfe von Erläuterungen können Sie regulatorische Anforderungen prüfen und erfüllen, Vertrauen in das Modell aufbauen und menschliche Entscheidungen unterstützen sowie die Modellleistung debuggen und verbessern.

Entscheidend für die Art der Erklärung ist die Notwendigkeit, den Anforderungen an menschliches Verständnis über die Art und die Ergebnisse der ML-Inferenz gerecht zu werden. Forschungen aus philosophischen und kognitionswissenschaftlichen Disziplinen haben gezeigt, dass Menschen sich besonders für kontrastive Erklärungen interessieren, also Erklärungen, warum ein Ereignis X eingetreten ist, anstatt für ein anderes Ereignis Y, das nicht eingetreten ist. Hier könnte X ein unerwartetes oder überraschendes Ereignis sein, das eingetreten ist, und Y entspricht einer Erwartung, die auf ihrem bestehenden mentalen Modell basiert und als Basislinie bezeichnet wird. Beachten Sie, dass für dasselbe Ereignis X verschiedene Personen je nach ihrer Sichtweise oder ihrem mentalen Modell Y unterschiedliche Erklärungen suchen können. Im Zusammenhang mit erklärbarer KI können Sie sich X als das Beispiel vorstellen, das erklärt wird, und Y als Basislinie, die normalerweise ausgewählt wird, um ein nicht informatives oder durchschnittliches Beispiel im Datensatz darzustellen. Manchmal, zum Beispiel bei der ML-Modellierung von Bildern, kann die Basislinie implizit sein, wobei ein Bild, dessen Pixel alle dieselbe Farbe haben, als Basislinie dienen kann.

Beispiel-Notebooks

Amazon SageMaker Clarify bietet das folgende Beispiel-Notebook zur Modellerklärbarkeit:

Dieses Notebook wurde so überprüft, dass es nur in Amazon SageMaker Studio ausgeführt wird. Anweisungen zum Öffnen eines Notebooks in Amazon SageMaker Studio finden Sie unter Erstellen oder Öffnen eines Amazon SageMaker Studio Classic Notebooks. Wenn Sie aufgefordert werden, einen Kernel auszuwählen, wählen Sie Python 3 (Data Science).