Übersicht - AWS Präskriptive Leitlinien

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Übersicht

Es gibt keine allgemein anerkannte Definition dafür, was ein interpretierbares Modell ist oder welche Informationen als Interpretation eines Modells angemessen sind. Dieser Leitfaden konzentriert sich auf den häufig verwendeten Begriff der Merkmalspriorität, bei dem ein Wichtigkeitswert für jedes Eingabemerkmal verwendet wird, um zu interpretieren, wie es sich auf die Modellergebnisse auswirkt. Diese Methode bietet Einblicke, erfordert aber auch Vorsicht. Die Bewertung der Wichtigkeit von Merkmalen kann irreführend sein und sollte sorgfältig analysiert werden, einschließlich der Validierung durch Fachexperten, wenn möglich. Insbesondere raten wir Ihnen, Bewertungen zur Wichtigkeit von Funktionen ohne Überprüfung nicht zu vertrauen, da Fehlinterpretationen zu schlechten Geschäftsentscheidungen führen können.

In der folgenden Abbildung werden die gemessenen Merkmale einer Iris in ein Modell übertragen, das die Pflanzenart vorhersagt, und die zugehörigen Merkmalsbedeutungen (SHAP-Attributionen) für diese Vorhersage werden angezeigt. In diesem Fall tragen die Blütenblattlänge, die Blütenblattbreite und die Kelchblattlänge alle positiv zur Klassifizierung von Iris virginica bei, aber die Breite der Kelchblätter trägt negativ dazu bei. (Diese Information basiert auf dem Iris-Datensatz aus [4].)

Vorhersage einer Iris anhand gemessener Merkmale und SHAP-Attributionen

Die Bewertung der Wichtigkeit von Features kann global sein, was bedeutet, dass die Bewertung für das Modell über alle Eingaben hinweg gültig ist, oder lokal, was bedeutet, dass die Bewertung für eine einzelne Modellausgabe gilt. Werte für die Wichtigkeit lokaler Merkmale werden häufig skaliert und summiert, um den Modellausgabewert zu erhalten, der als Attribute bezeichnet wird. Einfache Modelle werden als besser interpretierbar angesehen, da die Auswirkungen der Eingabemerkmale auf die Modellausgabe leichter zu verstehen sind. In einem linearen Regressionsmodell stellen die Größen der Koeffizienten beispielsweise einen globalen Merkmalswert dar, und für eine gegebene Vorhersage ist eine lokale Merkmalsattribution das Produkt aus ihrem Koeffizienten und dem Merkmalswert. In Ermangelung eines direkten lokalen Feature-Wichtigkeitswerts für eine Vorhersage können Sie einen Wichtigkeitswert aus einer Reihe von Baseline-Eingabe-Features berechnen, um zu verstehen, wie ein Feature im Verhältnis zur Basislinie beiträgt.