Bereitstellen eines Modells in Amazon SageMaker - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Bereitstellen eines Modells in Amazon SageMaker

Nachdem Sie Ihr Modell für maschinelles Lernen trainiert haben, können Sie es mit Amazon SageMaker bereitstellen, um je nach Anwendungsfall Vorhersagen auf eine der folgenden Arten zu erhalten:

  • Verwenden Sie SageMaker Echtzeit-Hosting-Services für persistente Echtzeit-Endpunkte, die jeweils nur eine Voraussage treffen. Siehe Echtzeit-Inferenz.

  • Workloads, die Leerlaufzeiten zwischen Datenverkehrsspurts haben und Kaltstarts tolerieren können, verwenden Serverless Inference. Siehe .

  • Anfragen mit großen Nutzlastgrößen bis zu 1 GB, langen Bearbeitungszeiten und Latenzanforderungen in nahezu Echtzeit verwenden Amazon SageMaker Asynchrone Inference. Siehe Asynchrone Inferenz.

  • Um Prognosen für ein ganzes Dataset zu erhalten, verwenden Sie die SageMaker -Stapeltransformation. Siehe Verwenden der Stapeltransformation.

SageMaker bietet auch Funktionen zum Verwalten von Ressourcen und Optimieren der Inferenzleistung bei der Bereitstellung von Modellen für das maschinelle Lernen (M)

  • Informationen zum Verwalten von Modellen auf Edge-Geräten, damit Sie Modelle für maschinelles Lernen auf Flotten von Edge-Geräten wie Smart-Kameras, Robotern, Personalcomputern und mobilen Geräten optimieren, sichern, überwachen und warten können, finden Sie unterBereitstellen von Modellen am Edge mit SageMaker Edge-Manageraus.

  • Informationen zur Optimierung von Gluon-, Keras-, MXNet-, PyTorch-, TensorFlow-, TensorFlow-Lite- und ONNX-Modellen für die Inferenz auf Android-, Linux- und Windows-Computern, die mit Prozessoren von Ambarella, ARM, Intel, Nvidia, NXP, Qualcomm, Texas Instruments und Xilinx arbeiten, finden Sie unterOptimieren Sie die Modellleistung mit Neoaus.

Weitere Informationen über alle Bereitstellungsoptionen finden Sie unterBereitstellen von Modellen für Inferenceaus.