2. Experimentieren - AWS Präskriptive Leitlinien

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

2. Experimentieren

Das Experimentieren umfasst die Protokollierung, Nachverfolgung und Metriken von Experimenten. Dies bedeutet die Integration von Experiment-Metadaten auf der gesamten Plattform, in der Quellcodeverwaltung und in Entwicklungsumgebungen. Zum Experimentieren gehört auch die Möglichkeit, die Leistung und Genauigkeit des Modells durch Debugging zu optimieren.

2.1 Integrierte Entwicklungsumgebungen

Eine integrierte Entwicklungsumgebung (IDE) ist direkt in die Cloud integriert. Die IDE kann mit dem größeren System interagieren und Befehle an dieses senden. Im Idealfall unterstützt sie Folgendes:

  • Lokale Entwicklung

  • Integration der Versionskontrolle

  • Debugging an Ort und Stelle, wobei alle generierten Logs und Artefakte in die Versionskontrolle einfließen

2.2 Kontrolle der Codeversion

Um die Reproduzierbarkeit und Wiederverwendbarkeit zu gewährleisten, wird der gesamte Code mit entsprechender Versionskontrolle in das Quell-Repository übertragen. Dazu gehören Infrastrukturcode, Anwendungscode, Modellcode und sogar Notebooks (falls Sie diese verwenden möchten).

2.3 Nachverfolgung

Ein ML-Projekt erfordert ein Tool, mit dem Machine-Learning-Experimente verfolgt und analysiert werden können. Dieses Tool sollte alle Metriken, Parameter und Artefakte während eines Machine-Learning-Experiments protokollieren und alle Metadaten an einem zentralen Ort aufzeichnen. Der zentrale Standort bietet die Möglichkeit, alle von Ihnen durchgeführten Experimente zu analysieren, zu visualisieren und zu prüfen.

2.4 Plattformübergreifende Integration

Historische Ergebnisse von Experimenten und all ihre Metadaten sind in anderen Teilen des Systems zugänglich. Beispielsweise können die vorhandenen Orchestrierungspipelines auf diese Daten zugreifen, ebenso wie die Überwachungstools.

2.5 Debugging: Genauigkeit und Systemleistung

Es gibt ein umfassendes Framework für das Debuggen von Modellen, mit dem Läufe auf Folgendes untersucht werden können:

  • Finden Sie Engpässe

  • Warnung vor Anomalien

  • Maximieren Sie die Ressourcennutzung

  • Hilfe bei der Analyse von Experimenten

Bei intensiven Schulungen ist die Fähigkeit, den Durchsatz zu maximieren, von entscheidender Bedeutung und macht dies zu einem unverzichtbaren Instrument zur Kostenoptimierung.