Übersicht über die Lösung -

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Übersicht über die Lösung

Ein skalierbares ML-Framework

In einem Unternehmen mit Millionen von Kunden, die über mehrere Geschäftsbereiche verteilt sind, erfordern ML-Workflows die Integration von Daten, die sich im Besitz isolierter Teams befinden und von diesen verwaltet werden. Dabei werden unterschiedliche Tools verwendet, um den Geschäftswert zu steigern. Banken haben sich zum Schutz der Daten ihrer Kunden verpflichtet. Gleichermaßen unterliegt auch die für die Entwicklung von ML-Modellen verwendete Infrastruktur hohen Sicherheitsstandards. Diese zusätzliche Sicherheit erhöht die Komplexität und beeinträchtigt die Wertschöpfungszeit für neue ML-Modelle. In einem skalierbaren ML-Framework können Sie ein modernisiertes, standardisiertes Toolset verwenden, um den Aufwand für die Kombination verschiedener Tools zu reduzieren und den route-to-live Prozess für neue ML-Modelle zu vereinfachen.

Traditionellerweise wird die Verwaltung und Unterstützung von datenwissenschaftlichen Aktivitäten in der FS-Branche von einem zentralen Plattformteam gesteuert, das die Anforderungen sammelt, die Ressourcen bereitstellt und die Infrastruktur für Datenteams in der gesamten Organisation betreibt. Um die Anwendung von ML in verbundenen Teams in der gesamten Organisation schnell zu skalieren, können Sie ein skalierbares ML-Framework verwenden, um Selbstbedienungsfunktionen für Entwickler neuer Modelle und Pipelines bereitzustellen. So können diese Entwickler eine moderne, vorab genehmigte, standardisierte und sichere Infrastruktur bereitstellen. Letztlich reduzieren diese Selbstbedienungsfunktionen die Abhängigkeit Ihrer Organisation von zentralisierten Plattformteams und beschleunigen die Amortisierungszeit für die Entwicklung von ML-Modellen.

Das skalierbare ML-Framework ermöglicht es Datennutzern (z. B. Datenwissenschaftlern oder ML-Ingenieuren), geschäftlichen Nutzen zu erschließen, indem es ihnen folgende Möglichkeiten bietet:

  • Suchen und erkunden von vorab genehmigten Daten, die für das Modelltraining erforderlich sind

  • Schnell und einfach Zugriff auf vorab genehmigte Daten erhalten

  • Vorab genehmigte Daten verwenden, um die Realisierbarkeit des Modells nachzuweisen

  • Das geprüfte Modell für die Produktion freigeben, damit andere es verwenden können

Das folgende Diagramm verdeutlicht den end-to-end Ablauf des Frameworks und den vereinfachten Weg zur Umsetzung von ML-Anwendungsfällen.

AWS Service Catalog shared account connecting to development, test, and production accounts.

Im weiteren Kontext verwenden Datennutzer einen Serverless-Beschleuniger namens Data.all um Daten aus mehreren Data Lakes zu beziehen und diese Daten dann zum Trainieren ihrer Modelle zu verwenden, wie das folgende Diagramm zeigt.

Data flow diagram showing MLOps and other applications interacting with data producers and consumers.

Auf einer niedrigeren Ebene enthält das skalierbare ML-Framework Folgendes:

Ein zentraler Knotenpunkt für Metadaten

Data.all ist ein Serverless-Beschleuniger, den Sie in Ihre bestehenden AWS Data Lakes integrieren können, um Metadaten in einem zentralen Hub zu sammeln. Eine einfache easy-to-use Benutzeroberfläche in data.all zeigt Metadaten an, die mit Datensätzen aus mehreren vorhandenen Data Lakes verknüpft sind. Auf diese Weise können sowohl technisch unerfahrene, als auch technisch versierte Benutzer nach wertvollen Daten suchen, diese durchsuchen und Zugriff darauf anfordern, damit sie in ihren ML-Labors verwendet werden können. Data.all verwendet AWS Lake Formation Amazon Elastic Container Service (Amazon ECS) AWS Fargate, Amazon OpenSearch Service und. AWS Lambda AWS Glue

SageMaker Validierung

Um die Fähigkeiten der SageMaker KI in einer Reihe von Datenverarbeitungs- und ML-Architekturen nachzuweisen, wählt das Team, das die Funktionen implementiert, zusammen mit dem Bankleitungsteam Anwendungsfälle unterschiedlicher Komplexität aus verschiedenen Bereichen von Bankkunden aus. Die Anwendungsfalldaten werden verschleiert und in einem lokalen Amazon Simple Storage Service (Amazon S3) -Daten-Bucket im Anwendungsfall-Entwicklungskonto für die Funktionstests zur Verfügung gestellt.

Wenn die Modellmigration von der ursprünglichen Trainingsumgebung zu einer SageMaker KI-Architektur abgeschlossen ist, stellt Ihr in der Cloud gehosteter Data Lake die Daten zur Verfügung, damit sie von den Produktionsmodellen gelesen werden können. Die von den Produktionsmodellen generierten Vorhersagen werden dann in den Data Lake zurückgeschrieben.

Nachdem die möglichen Anwendungsfälle migriert wurden, erstellt das skalierbare ML-Framework eine erste Basislinie für die Zielmetriken. Sie können die Basislinie mit früheren Zeitmessungen On-Premises oder bei anderen Cloud-Anbietern vergleichen, um die Zeitverbesserungen zu belegen, die durch das skalierbare ML-Framework ermöglicht werden.