Verwalten von Machine Learning mit Amazon SageMaker - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Verwalten von Machine Learning mit Amazon SageMaker

Amazon SageMaker Experiments ist eine Funktion von Amazon SageMaker, mit der Sie Machine Learning-Experimente organisieren, nachverfolgen, vergleichen und bewerten können.

Maschinelles Lernen ist ein iterativer Prozess. Sie müssen mit mehreren Kombinationen von Daten, Algorithmen und Parametern experimentieren, während Sie gleichzeitig die Auswirkungen inkrementeller Änderungen auf die Modellgenauigkeit beobachten. Im Laufe der Zeit kann dieses iterative Experimentieren zu Tausenden von Modelltrainingsläufen und Modellversionen führen. Dadurch wird die Nachverfolgung der leistungsfähigsten Modelle und ihrer Eingabekonfigurationen erschwert. Es ist auch schwierig, aktive Experimente mit früheren Versuchen zu vergleichen, um Möglichkeiten für weitere schrittweise Verbesserungen zu erkennen.

SageMager-Piments verfolgt automatisch die Eingaben, Parameter, Konfigurationen und Ergebnisse aller Ihrer Wiederholungen alsGerichtsverfahrenaus. Sie können diese Versuche auch zu Experimenten zuordnen und als Experimente gruppieren und organisieren. SageMaker Experiments ist in Amazon SageMaker Studio integriert, das eine visuelle Oberfläche für das Durchsuchen Ihrer aktiven und früheren Experimente, den Vergleich von Testversionen in Bezug auf wichtige Leistungsmetriken und die Identifizierung der Modelle mit der besten Leistung bereitstellt.

SageMaker Experiments kommt mit eigenenExperimente Python SDKwodurch die Analysefunktionen in Amazon SageMaker Notebooks leicht zugänglich sind. Da SageMaker Experiments die Nachverfolgung aller Schritte und Artefakte ermöglicht, die mit der Erstellung eines Modells verbunden sind, können Sie schnell die Ursprünge eines Modells überprüfen, wenn Sie Probleme in der Produktion beheben oder Ihre Modelle auf Compliance-Verifizierungen überwachen.

SageMaker-Experimente

In den folgenden Abschnitten erhalten Sie eine kurze Übersicht über die Funktionen von SageMaker Experiments.

Organisieren von Experimenten

Amazon SageMaker Experiments bietet ein strukturiertes Organisationsschema, mit dem Benutzer ihre Machine Learning-Iterationen gruppieren und organisieren können. Die Entität der obersten Ebene, ein Experiment, ist eine Sammlung von Testversionen, die als Gruppe beobachtet, verglichen und bewertet werden. Eine Testversion ist eine Reihe von Schritten, die als Testkomponenten bezeichnet werden. Jede Testkomponente kann eine Kombination von Eingaben wie Datasets, Algorithmen und Parameter enthalten und spezifische Ausgaben wie Modelle, Metriken, Datasets und Prüfpunkte erzeugen. Beispiele für Testkomponenten sind Datenvorverarbeitungsaufträge, Trainingsaufträge und Stapeltransformationsaufträge.

Das Ziel eines Experiments ist es, zu bestimmen, welche Testversion das beste Modell produziert. Es werden mehrere Tests durchgeführt, bei denen jeweils die Auswirkungen einer Änderung an einer oder mehreren Eingaben isoliert und gemessen werden, während die übrigen Eingaben konstant bleiben. Durch die Analyse der Testversionen können Sie bestimmen, welche Funktionen die meisten Auswirkungen auf das Modell haben.

Nachverfolgen von Experimenten

Amazon SageMaker Experiments ermöglichen das Nachverfolgen von Experimenten.

Automatisiertes Tracking

SageMager-Periments verfolgt automatisch Amazon SageMaker SageMager-System-Autopilot-Aufgaben als Experimente mit ihren zugrunde liegenden Schulungsaufträgen nach. Diese werden SageMaker Experiments verfolgt darüber hinaus automatisch unabhängig ausgeführte -Trainings-, Stapeltransformations- und Verarbeitungsaufträge als Testkomponenten nach, unabhängig davon, ob sie einer Testversion zugewiesen oder nicht zugewiesen sind. Nicht zugewiesene Testkomponenten können zu einem späteren Zeitpunkt einer Testversion zugeordnet werden. Alle experimentellen Artefakte, darunter Datasets, Algorithmen, Hyperparameter und Modellmetriken, werden nachverfolgt und aufgezeichnet. Diese Daten ermöglichen es Kunden, die vollständige Herkunft eines Modells nachzuvollziehen, was bei Modell-Governance, Auditing und Compliance-Verifizierungen nützlich ist.

Manuelles Verfolgen

SageMaker-Experimente bietetNachverfolgungs-APIszum Aufzeichnen und Nachverfolgen von Machine Learning-Workflows, die lokal auf SageMagerStudio-Notebooks ausgeführt werden, einschließlich klassischer SageMagerer-Notebooks Diese Experimente müssen Teil einer SageMaker-Schulungs-, Stapeltransformations- oder Verarbeitungsaufgabe sein.

Vergleichen und Auswerten von Experimenten

Amazon SageMaker Experiments ist in Amazon SageMaker Studio integriert. Wenn Sie SageMaker Studio verwenden, verfolgt SageMaker Experiments automatisch Ihre Experimente und Testversionen nach und präsentiert Visualisierungen der nachverfolgten Daten sowie eine Oberfläche zum Durchsuchen der Daten.

SageMager-Piments organisiert, ordnet und sortiert Testversionen automatisch basierend auf einer ausgewählten Metrik und nutzt das Konzept einer Testversions-Bestenliste. SageMaker Studio erstellt Datenvisualisierungen in Echtzeit, z. B. Metrikdiagramme und -grafiken, um schnell die Modelle mit der besten Leistung zu vergleichen und zu identifizieren. Diese werden im Verlauf des Experiments in Echtzeit aktualisiert.

Amazon SageMaker SageMaker-Autopilot

Amazon SageMaker Experiments sind in Amazon SageMaker Autopilot integriert. Wenn Sie einen Autopilot-Auftrag ausführen, erstellt SageMaker Experiments ein Experiment für die Aufgabe und Testversionen für jede der verschiedenen Kombinationen der verfügbaren Testkomponenten, Parameter und Artefakte. Sie können alle Testversionen und Komponenten mithilfe von SageMaker Studio visuell in Drilldown durchführen.