Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Implemente un modelo en Amazon SageMaker
Después de entrenar tu modelo de aprendizaje automático, puedes implementarlo con Amazon SageMaker para obtener predicciones. Amazon SageMaker admite las siguientes formas de implementar un modelo, según el caso de uso:
-
Para los puntos de enlace persistentes y en tiempo real que hacen una predicción a la vez, utilice servicios de alojamiento SageMaker en tiempo real. Consulte Inferencia en tiempo real.
-
Utilice Serverless Inference para las cargas de trabajo que tienen períodos de inactividad entre picos de tráfico y que pueden tolerar los arranques en frío. Consulte Implemente modelos con Amazon SageMaker Serverless Inference.
-
Las solicitudes con cargas útiles grandes de hasta 1 GB, tiempos de procesamiento prolongados y requisitos de latencia prácticamente en tiempo real utilizan Amazon SageMaker Asynchronous Inference. Consulte Inferencia asíncrona.
-
Para obtener predicciones para un conjunto de datos completo, utilice la transformación por lotes. SageMaker Consulte Usa la transformación por lotes para realizar inferencias con Amazon SageMaker.
SageMaker también proporciona funciones para administrar los recursos y optimizar el rendimiento de las inferencias al implementar modelos de aprendizaje automático:
-
Para gestionar los modelos en dispositivos periféricos de forma que pueda optimizar, proteger, supervisar y mantener los modelos de aprendizaje automático en flotas de dispositivos periféricos, consulte. Implemente modelos periféricos con Edge Manager SageMaker Esto se aplica a los dispositivos periféricos, como cámaras inteligentes, robots, ordenadores personales y dispositivos móviles.
-
Para optimizar los modelos Gluon, Keras, MXNet,, PyTorch TensorFlow, TensorFlow -Lite y ONNX para su inferencia en máquinas Android, Linux y Windows basadas en procesadores de Ambarella, ARM, Intel, Nvidia, NXP, Qualcomm, Texas Instruments y Xilinx, consulte. Optimice el rendimiento del modelo con Neo
Para obtener más información acerca de todas las opciones de implementación, consulte Implementar modelos para inferencia.