Beispiele und weitere Informationen: Verwenden Sie Ihren eigenen Algorithmus oder Ihr eigenes Modell - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Beispiele und weitere Informationen: Verwenden Sie Ihren eigenen Algorithmus oder Ihr eigenes Modell

Die folgenden Jupyter-Notebooks und hinzugefügten Informationen zeigen, wie Sie Ihre eigenen Algorithmen oder vortrainierten Modelle aus einer Amazon- SageMaker Notebook-Instance verwenden. Links zu den GitHub Repositorys mit den vorgefertigten Dockerfiles für die Frameworks TensorFlow, MXNet , Chainer und PyTorch sowie Anweisungen zur Verwendung der AWS SDK for Python (Boto3) Schätzer zur Ausführung Ihrer eigenen Trainingsalgorithmen auf SageMaker Learner und Ihrer eigenen Modelle beim SageMaker Hosting finden Sie unter . Vorgefertigte SageMaker Docker-Images für Deep Learning

Aufstellen

  1. Erstellen Sie eine SageMaker Notebook-Instance. Anweisungen zum Erstellen von Jupyter-Notebook-Instances und zum Zugriff darauf finden Sie unter Amazon SageMaker Notebook-Instances.

  2. Öffnen Sie die Notebook-Instance, die Sie erstellt haben.

  3. Wählen Sie die Registerkarte SageMaker Beispiele für eine Liste aller SageMaker Beispiel-Notebooks aus.

  4. Öffnen Sie die Beispiel-Notebooks im Abschnitt Erweiterte Funktionen in Ihrer Notebook-Instance oder von GitHub über die bereitgestellten Links. Zum Öffnen eines Notebooks wählen Sie die Registerkarte Use (Verwenden) und dann Create copy (Kopie erstellen).

Hosten Sie Modelle, die in Scikit-Learn geschult wurden

Informationen zum Hosten von Modellen, die in Scikit-learn für Prognosen in trainiert wurden, SageMaker indem sie in k-Means und XGBoost-Container von Erstanbietern eingefügt werden, finden Sie in den folgenden Beispielnotizbüchern.

Pakete TensorFlow und Scikit-learn-Modelle zur Verwendung in SageMaker

Weitere Informationen zum Verpacken von Algorithmen, die Sie in - TensorFlow und scikit-learn-Frameworks für Training und Bereitstellung in der SageMaker Umgebung entwickelt haben, finden Sie in den folgenden Notebooks. Sie zeigen Ihnen, wie Sie Ihre eigenen Docker-Container mithilfe von Dockerfiles erstellen, registrieren und bereitstellen können.

Trainieren und Bereitstellen eines neuronalen Netzwerks in SageMaker

Informationen zum lokalen Trainieren eines neuronalen Netzwerks mit MXNet oder TensorFlow, zum Erstellen eines Endpunkts aus dem trainierten Modell und zum Bereitstellen dieses Netzwerks auf finden SageMakerSie in den folgenden Notebooks. Das MXNet-Modell ist geschult, um handschriftliche Zahlen aus dem MNIST-Dataset zu erkennen. Das TensorFlow Modell ist darauf geschult, Irises zu klassifizieren.

Schulen mit Pipe-Modus

Um zu erfahren, wie Sie eine Dockerfile zum Erstellen eines Containers verwenden, der das train.py script aufruft und den Pipe-Modus zur benutzerdefinierten Schulung eines Algorithmus verwendet, beachten Sie das folgende Notebook. Im Pipe-Modus werden die Eingabedaten während der Schulung auf den Algorithmus übertragen. Dadurch kann sich die Schulungszeit im Vergleich zum Dateimodus verkürzen.

Bringen Sie Ihr eigenes R Modell

Wie man ein benutzerdefiniertes R-Image hinzufügt, um ein Modell in einem AWS SMS Notebook zu erstellen und zu schulen, erfahren Sie im folgenden Blogbeitrag. In diesem Blogbeitrag wird ein Beispiel für ein R Dockerfile aus einer Bibliothek von SageMaker Studio Classic Custom Image Samples verwendet.

Erweitern eines vordefinierten PyTorch Container-Images

Informationen zum Erweitern eines vorgefertigten SageMaker PyTorch Container-Images, wenn Sie zusätzliche funktionale Anforderungen an Ihren Algorithmus oder Ihr Modell haben, die das vorgefertigte Docker-Image nicht unterstützt, finden Sie im folgenden Notebook.

Weitere Informationen zum Erweitern eines Containers finden Sie unter Erweitern eines vorgefertigten Containers.

Schulen und debuggen Sie Schulungsaufträge in einem benutzerdefinierten Container

Weitere Informationen zum Trainieren und Debuggen von Schulungsaufträgen mit SageMaker Debugger finden Sie im folgenden Notebook. Ein in diesem Beispiel bereitgestelltes Trainingsskript verwendet das TensorFlow Keras- ResNet 50-Modell und den CIFAR10-Datensatz. Ein benutzerdefinierter Docker-Container wird mit dem Schulungsskript erstellt und an Amazon ECR übertragen. Während der Schulungsauftrag ausgeführt wird, sammelt der Debugger die Tensorausgaben und identifiziert Debugging-Probleme. Mit den smdebug Client-Bibliothek-Tools können Sie ein smdebug Testobjekt einrichten, das den Schulungsauftrag und die Debugging-Informationen aufruft, den Status der Schulungs- und Debugger-Regeln überprüfen und in einem Amazon S3-Bucket gespeicherte Tensoren abrufen, um Schulungsprobleme zu analysieren.