Verwalten von Machine Learning mit Amazon SageMaker -Experimente - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Verwalten von Machine Learning mit Amazon SageMaker -Experimente

Amazon SageMaker Experimente sind eine Fähigkeit von Amazon SageMaker mit dem Sie Machine Learning-Experimente organisieren, verfolgen und bewerten können.

Maschinelles Lernen ist ein iterativer Prozess. Sie müssen mit mehreren Kombinationen von Daten, Algorithmen und Parametern experimentieren, während Sie gleichzeitig die Auswirkungen inkrementeller Änderungen auf die Modellgenauigkeit beobachten. Im Laufe der Zeit kann dieses iterative Experimentieren zu Tausenden von Modelltrainingsläufen und Modellversionen führen. Dadurch wird die Nachverfolgung der leistungsfähigsten Modelle und ihrer Eingabekonfigurationen erschwert. Es ist auch schwierig, aktive Experimente mit früheren Versuchen zu vergleichen, um Möglichkeiten für weitere schrittweise Verbesserungen zu erkennen.

SageMagerexperiments verfolgt automatisch die Eingaben, Parameter, Konfigurationen und Ergebnisse Ihrer Wiederholungen alsGerichtsverfahrenaus. Sie können diese Testversionen zuordnen und organisierenExperimenteaus. SageMaker Experiments sind in Amazon integriert SageMaker Studio bietet eine visuelle Oberfläche zum Durchsuchen Ihrer aktiven und früheren Experimente, zum Vergleichen von Tests in Bezug auf wichtige Leistungsmetriken und die Identifizierung der Modelle mit der besten Leistung.

SageMaker Experiments kommt mit eigenenExperimente Python SDKwodurch die Analysefunktionen leicht in Amazon zugänglich sind SageMaker Notebooks. Da es sich bei SageMaker Experiments ermöglicht die Nachverfolgung aller Schritte und Artefakte, die mit der Erstellung eines Modells verbunden sind, können Sie schnell die Ursprünge eines Modells überprüfen, wenn Sie Probleme in der Produktion beheben oder Ihre Modelle auf Compliance-Verifizierungen überwachen.

SageMaker-Experimente

In den folgenden Abschnitten erhalten Sie eine kurze Übersicht über die von SageMagerexperiments bereitgestellten Funktionen.

Organisieren von Experimenten

Amazon SageMaker Experiments bietet ein strukturiertes Organisationsschema, mit dem Benutzer ihre Machine Learning-Iterationen gruppieren und organisieren können. Die Entität der obersten Ebene, ein Experiment, ist eine Sammlung von Testversionen, die als Gruppe beobachtet, verglichen und bewertet werden. Eine Testversion ist eine Reihe von Schritten, die als Testkomponenten bezeichnet werden. Jede Testkomponente kann eine Kombination von Eingaben wie Datasets, Algorithmen und Parameter enthalten und spezifische Ausgaben wie Modelle, Metriken, Datasets und Prüfpunkte erzeugen. Beispiele für Testkomponenten sind Datenvorverarbeitungsaufträge, Trainingsaufträge und Stapeltransformationsaufträge.

Das Ziel eines Experiments ist es, zu bestimmen, welche Testversion das beste Modell produziert. Es werden mehrere Tests durchgeführt, bei denen jeweils die Auswirkungen einer Änderung an einer oder mehreren Eingaben isoliert und gemessen werden, während die übrigen Eingaben konstant bleiben. Durch die Analyse der Testversionen können Sie bestimmen, welche Funktionen die meisten Auswirkungen auf das Modell haben.

Nachverfolgen von Experimenten

Amazon SageMaker Experiments ermöglichen die Nachverfolgung von Experimenten.

Automatisiertes Tracking

SageMaker Experiments verfolgt Amazon automatisch SageMaker Autopilot-Aufträge als Experimente nach, die ihnen zugrunde liegenden Trainingsaufträge als Testversionen nachverfolgt werden. SageMaker Experimente werden auch automatisch verfolgt SageMaker unabhängig ausgeführte -Trainings- Stapeltransformations- und Verarbeitungsaufträge als Testkomponenten durch, unabhängig davon, ob sie einer Testversion zugewiesen oder nicht zugewiesen wurden. Nicht zugewiesene Testkomponenten können zu einem späteren Zeitpunkt einer Testversion zugeordnet werden. Alle experimentellen Artefakte, darunter Datasets, Algorithmen, Hyperparameter und Modellmetriken, werden nachverfolgt und aufgezeichnet. Diese Daten ermöglichen es Kunden, die vollständige Herkunft eines Modells nachzuvollziehen, was bei Modell-Governance, Auditing und Compliance-Verifizierungen nützlich ist.

Manuelles Verfolgen

SageMaker Experiments bietetNachverfolgungs-APIszum Aufzeichnen und Nachverfolgen von Machine Learning-Workflows, die lokal auf laufen SageMaker Studio-Notebooks, einschließlich Klassiker SageMaker Notebooks. Diese Experimente müssen Teil einer sein SageMaker Schulung, Stapeltransformation oder Verarbeitungsauftrag.

Vergleichen und Auswerten von Experimenten

Amazon SageMaker Experiments sind in Amazon integriert SageMaker Studio. Wenn Sie SageMaker Studio verfolgt automatisch Ihre Experimente und Testversionen nach und präsentiert Visualisierungen der verfolgten Daten und eine Schnittstelle zum Suchen der Daten.

SageMagerexperiments organisiert und sortiert Testversionen automatisch basierend auf einer ausgewählten Metrik unter Verwendung des Konzepts einer Testbestenliste. SageMaker Studio erstellt Datenvisualisierungen in Echtzeit, z. B. Metrikdiagramme und -grafiken, um schnell die Modelle mit der besten Leistung zu vergleichen und zu identifizieren. Diese werden im Verlauf des Experiments in Echtzeit aktualisiert.

Amazon SageMaker Autopilot

Amazon SageMaker Experiments sind in Amazon integriert SageMaker Autopilot. Wenn Sie einen Autopilot-Job ausführen, SageMaker Experiments erstellt ein Experiment für den Auftrag und Testversionen für jede der verschiedenen Kombinationen der verfügbaren Testkomponenten, Parameter und Artefakte. Sie können alle Testversionen und -komponenten mit SageMaker Studio.