Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Bewährte Methoden
Dieser Abschnitt bietet einen Überblick über AWS bewährte Methoden für MLOps.
Kontoverwaltung und -Trennung
AWS Bewährte Methoden für die Kontoverwaltung empfehlen, dass Sie Ihre Konten für jeden Anwendungsfall in vier Konten unterteilen: Experimentieren, Entwickeln, Testen und Produzieren. Es hat sich auch bewährt, ein Governance-Konto für die Bereitstellung gemeinsam genutzter MLOps Ressourcen im gesamten Unternehmen und ein Data-Lake-Konto für den zentralen Datenzugriff zu haben. Der Grund dafür ist die vollständige Trennung von Entwicklungs-, Test- und Produktionsumgebungen, die Vermeidung von Verzögerungen, die dadurch entstehen, dass Service-Limits durch mehrere Anwendungsfälle und Datenwissenschaftsteams erreicht werden, die sich dieselben Konten teilen, und die Bereitstellung einer vollständigen Übersicht über die Kosten für jeden Anwendungsfall. Schließlich ist es eine bewährte Methode, Daten auf Kontoebene zu trennen, sodass jeder Anwendungsfall seinen eigenen Satz von Konten hat.
Sicherheitsstandards
Um die Sicherheitsanforderungen zu erfüllen, ist es eine bewährte Methode, den öffentlichen Internetzugang auszuschalten und alle Daten mit benutzerdefinierten Schlüsseln zu verschlüsseln. Anschließend können Sie mithilfe von Service Catalog innerhalb weniger Minuten eine sichere Instanz von Amazon SageMaker AI Studio für das Entwicklungskonto bereitstellen. Sie können auch Funktionen zur Prüfung und Modellüberwachung für jeden Anwendungsfall nutzen, indem Sie SageMaker KI mithilfe von Vorlagen verwenden, die mit SageMaker KI-Projekten bereitgestellt werden.
Anwendungsfall-Funktionen
Nach Abschluss der Kontoeinrichtung können die Datenwissenschaftler Ihres Unternehmens mithilfe von SageMaker KI-Projekten in SageMaker AI Studio eine neue Anwendungsfallvorlage anfordern. Bei diesem Prozess wird die erforderliche Infrastruktur bereitgestellt, um im Entwicklungskonto über MLOps Funktionen wie CI/CD Pipelines, Komponententests, Modelltests und Modellüberwachung verfügen zu können (wobei nur minimale Unterstützung durch zentrale Teams erforderlich ist).
Jeder Anwendungsfall wird dann so entwickelt (oder im Fall einer vorhandenen Anwendungscodebasis umgestaltet), dass er in einer SageMaker KI-Architektur ausgeführt werden kann. Dabei werden SageMaker KI-Funktionen wie die Nachverfolgung von Experimenten, die Erklärbarkeit von Modellen, die Erkennung von Verzerrungen und die Qualitätsüberwachung verwendet. data/model Sie können diese Funktionen zu jeder Anwendungsfall-Pipeline hinzufügen, indem Sie Pipeline-Schritte in KI-Pipelines verwenden. SageMaker
MLOps Reise zur Reife
Der MLOps Reifegrad definiert die erforderlichen MLOps Funktionen, die in einem unternehmensweiten System zur Verfügung gestellt werden, um sicherzustellen, dass ein end-to-end vorbildlicher Arbeitsablauf vorhanden ist. Der Reifeprozess besteht aus vier Phasen:
Initial – In dieser Phase richten Sie das Experimentierkonto ein. Sie sichern sich auch ein neues AWS Konto in Ihrer Organisation, mit dem Sie mit SageMaker Studio und anderen neuen AWS Diensten experimentieren können.
Wiederholbar – In dieser Phase standardisieren Sie die Code-Repositorys und die Entwicklung der ML-Lösung. Sie verfolgen außerdem einen Implementierungsansatz für mehrere Konten und standardisieren Ihre Code-Repositorys, um die Modellverwaltung und Modellprüfungen bei der Aufskalierung des Angebots zu unterstützen. Es ist eine bewährte Methode, einen produktionsreifen Modellentwicklungsansatz mit Standardlösungen zu verfolgen, die von einem Governance-Konto bereitgestellt werden. Die Daten werden in einem Data-Lake-Konto gespeichert, und Anwendungsfälle werden in zwei Konten entwickelt. Das erste Konto ist für Experimente während der datenwissenschaftlichen Erkundung vorgesehen. In diesem Konto erkunden Datenwissenschaftler Modelle zur Lösung des Geschäftsproblems und experimentieren mit mehreren Möglichkeiten. Das andere Konto bezieht sich auf die Entwicklung, die stattfindet, nachdem das beste Modell identifiziert wurde und das Datenwissenschaftsteam bereit ist, an der Inferenz-Pipeline zu arbeiten.
Zuverlässig – In dieser Phase führen Sie Tests, Bereitstellung und Bereitstellung für mehrere Konten ein. Sie müssen die MLOps Anforderungen verstehen und automatisierte Tests einführen. Implementieren Sie MLOps bewährte Verfahren, um sicherzustellen, dass die Modelle sowohl robust als auch sicher sind. Führen Sie in dieser Phase zwei neue Anwendungsfallkonten ein: ein Testkonto zum Testen von Modellen, die in einer Umgebung entwickelt wurden, die die Produktionsumgebung emuliert, und ein Produktionskonto für die Ausführung von Modellinferenzen während des Geschäftsbetriebs. Abschließend verwenden Sie automatisierte Modelltests, -bereitstellungen und -überwachungen in einer Konfiguration mit mehreren Konten, um sicherzustellen, dass Ihre Modelle die von Ihnen gesetzten hohen Qualitäts- und Leistungsanforderungen erfüllen.
Skalierbar – In dieser Phase erstellen Sie Vorlagen für mehrere ML-Lösungen und produzieren diese. MLOps Während des end-to-end Modellerstellungsprozesses werden sie von mehreren Teams und ML-Anwendungsfällen eingeführt. Um in dieser Phase Skalierbarkeit zu erreichen, erhöhen Sie auch die Anzahl der Vorlagen in Ihrer Vorlagenbibliothek, indem Sie Beiträge von einer breiteren Basis von Datenwissenschaftlern einbringen, die Zeit bis zur Wertschöpfung von der Idee bis zum Produktionsmodell für mehr Teams in der gesamten Organisation verkürzen und bei der Skalierung iterieren.
Weitere Informationen zum MLOps Reifegradmodell finden Sie im AWS Machine Learning Learning-Blog unter MLOps Gründungs-Roadmap für Unternehmen mit Amazon SageMaker KI