Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Bereitstellen eines Modells
Um ein von Amazon SageMaker Neo kompiliertes Modell auf einem HTTPS-Endpunkt bereitzustellen, müssen Sie den Endpunkt für das Modell mithilfe von Amazon- SageMaker Hosting-Services konfigurieren und erstellen. Derzeit können Entwickler Amazon- SageMaker APIs verwenden, um Module auf ml.c5-, ml.c4-, ml.m5-, ml.m4-, ml.p3-, ml.p2- und ml.inf1-Instances bereitzustellen.
Für Inferentia
Für Elastic Inference-Beschleuniger
Wenn Sie ein kompiliertes Modell bereitstellen, müssen Sie für das Ziel die gleiche Instance verwenden, die Sie auch für die Kompilierung verwendet haben. Dadurch wird ein SageMaker Endpunkt erstellt, mit dem Sie Inferenzen durchführen können. Sie können ein Neo-kompiliertes Modell mit einer der folgenden Methoden bereitstellen: Amazon SageMaker SDK for Python
Anmerkung
Informationen zur Bereitstellung eines Modells mit AWS CLI, der Konsole oder Boto3 finden Sie unter Neo Inference Container Images, um den Inferenzbild-URI für Ihren primären Container auszuwählen.