Auswahl der Instance für die Neptune-ML-Phasen - Amazon Neptune

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Auswahl der Instance für die Neptune-ML-Phasen

Unterschiedliche Phasen der Neptune-ML-Verarbeitung verwenden unterschiedliche SageMaker-Instances. Im Folgenden wird beschrieben, wie Sie den richtigen Instance-Typ für die einzelnen Phasen auswählen. Informationen zu SageMaker-Instance-Typen und -Preisen finden Sie unter Amazon-SageMaker-Preise.

Auswahl einer Instance für die Datenverarbeitung

Der Schritt für die Datenverarbeitungsschritt in SageMaker erfordert eine Verarbeitungs-Instance, die über ausreichend Arbeits- und Festplattenspeicher für Eingabe-, Zwischen- und Ausgabedaten verfügt. Die spezifische Menge an Arbeits- und Festplattenspeicher, die benötigt wird, ist von den Eigenschaften des Neptune-ML-Diagramms und dessen exportierten Features abhängig.

Standardmäßig wählt Neptune ML die kleinste ml.r5-Instance aus, deren Arbeitsspeicher zehnmal größer als die Größe der exportierten Diagrammdaten auf der Festplatte ist.

Auswahl einer Instance für Modelltraining und Modelltransformation

Die Auswahl des richtigen Instance-Typs für Modelltraining oder Modelltransformation ist vom Typ der Aufgabe, der Größe des Diagramms und den Anforderungen an die Bearbeitungszeit abhängig. GPU-Instances stellen die beste Leistung bereit. Wir empfehlen grundsätzlich serielle p3- und g4dn-Instances. Sie können auch p2- oder p4d-Instances verwenden.

Standardmäßig wählt Neptune ML die kleinste GPU-Instance aus, deren Arbeitsspeicher größer als von Modelltraining und Modelltransformation benötigt ist. Informationen zu dieser Auswahl finden Sie in der Datei train_instance_recommendation.json im Amazon-S3-Datenverarbeitungsausgabeort. Dies ist ein Beispiel für den Inhalt einer train_instance_recommendation.json-Datei:

{ "instance": "(the recommended instance type for model training and transform)", "cpu_instance": "(the recommended instance type for base processing instance)", "disk_size": "(the estimated disk space required)", "mem_size": "(the estimated memory required)" }

Auswahl einer Instance für einen Inferenzendpunkt

Die Auswahl des richtigen Instance-Typs für einen Inferenzendpunkt ist vom Typ der Aufgabe, der Größe des Diagramms und dem Budget abhängig. Standardmäßig wählt Neptune ML die kleinste ml.m5d-Instance aus, deren Arbeitsspeicher größer als vom Inferenzendpunkt benötigt ist.

Anmerkung

Wenn mehr als 384 GB Arbeitsspeicher benötigt werden, verwendet Neptune ML eine ml.r5d.24xlarge-Instance.

Informationen zum von Neptune ML empfohlenen Instance-Typ finden Sie in der Datei infer_instance_recommendation.json am Amazon-S3-Ort, den Sie zum Modelltraining verwenden. Dies ist ein Beispiel für den Inhalt dieser Datei:

{ "instance" : "(the recommended instance type for an inference endpoint)", "disk_size" : "(the estimated disk space required)", "mem_size" : "(the estimated memory required)" }