Seleccione sus preferencias de cookies

Usamos cookies esenciales y herramientas similares que son necesarias para proporcionar nuestro sitio y nuestros servicios. Usamos cookies de rendimiento para recopilar estadísticas anónimas para que podamos entender cómo los clientes usan nuestro sitio y hacer mejoras. Las cookies esenciales no se pueden desactivar, pero puede hacer clic en “Personalizar” o “Rechazar” para rechazar las cookies de rendimiento.

Si está de acuerdo, AWS y los terceros aprobados también utilizarán cookies para proporcionar características útiles del sitio, recordar sus preferencias y mostrar contenido relevante, incluida publicidad relevante. Para aceptar o rechazar todas las cookies no esenciales, haga clic en “Aceptar” o “Rechazar”. Para elegir opciones más detalladas, haga clic en “Personalizar”.

Próximos pasos para realizar inferencias con Amazon AI SageMaker

Modo de enfoque
Próximos pasos para realizar inferencias con Amazon AI SageMaker - Amazon SageMaker AI

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Una vez que tenga un punto final y comprenda el flujo de trabajo de inferencia general, puede utilizar las siguientes funciones de la SageMaker IA para mejorar su flujo de trabajo de inferencia.

Monitorización

Para realizar un seguimiento del modelo a lo largo del tiempo mediante métricas como la precisión y la desviación del modelo, puede utilizar el monitor de modelos. Con el monitor de modelos, puede configurar alertas que le notifiquen cuando haya desviaciones en la calidad de su modelo. Para obtener más información, consulte la documentación del monitor de modelos.

Para obtener más información sobre las herramientas que se pueden utilizar para supervisar las implementaciones de modelos y los eventos que cambian su punto de conexión, consulte Supervisar Amazon SageMaker AI. Por ejemplo, puedes monitorizar el estado de tu punto final mediante métricas como los errores de invocación y la latencia del modelo mediante CloudWatch las métricas de Amazon. Las métricas de invocación de puntos finales de SageMaker IA pueden proporcionarle información valiosa sobre el rendimiento de su punto final.

CI/CD para la implementación de modelos

Para crear soluciones de aprendizaje automático en SageMaker IA, puede utilizar la SageMaker IA MLOps. Puede utilizar esta característica para automatizar los pasos de su flujo de trabajo de machine learning y practicar CI/CD. Puedes usar plantillas de MLOps proyectos para ayudarte a configurar e implementar MLOps proyectos de SageMaker IA. SageMaker La IA también admite el uso de su propio repositorio de Git de terceros para crear un sistema de CI/CD.

Para sus canalizaciones de ML, utilice Model Registry para gestionar las versiones de sus modelos y la implementación y automatización de los mismos.

Barreras de protección de implementación

Si desea actualizar el modelo mientras está en producción sin que ello afecte a la producción, puede utilizar las barreras de protección de implementación. Las barandillas de despliegue son un conjunto de opciones de despliegue de modelos en SageMaker AI Inference para actualizar los modelos de aprendizaje automático en producción. Con las opciones de implementación totalmente gestionadas, puede controlar el cambio del modelo actual en producción a uno nuevo. Los modos de cambio de tráfico le permiten controlar minuciosamente el proceso de cambio de tráfico, y las medidas de seguridad integradas, como las reversiones automáticas, le ayudan a detectar los problemas desde el principio.

Para obtener más información sobre barreras de protección de implementación, consulte la documentación sobre barreras de protección de implementación.

Inferentia

Si necesita ejecutar aplicaciones de machine learning y aprendizaje profundo a gran escala, puede utilizar una instancia de Inf1 con un punto de conexión en tiempo real. Este tipo de instancia es adecuado para casos de uso como reconocimiento de imágenes o voz, procesamiento de lenguaje natural (NLP), personalización, previsión o detección de fraudes.

Inf1las instancias están diseñadas para ser compatibles con las aplicaciones de inferencia de aprendizaje automático y cuentan con los chips Inferentia. AWS Inf1las instancias ofrecen un mayor rendimiento y un menor coste por inferencia que las instancias basadas en GPU.

Para implementar un modelo en Inf1 instancias, compile su modelo con SageMaker Neo y elija una Inf1 instancia para su opción de implementación. Para obtener más información, consulte Optimizar el rendimiento de los modelos con SageMaker Neo.

Optimizar el rendimiento de modelos

SageMaker La IA proporciona funciones para gestionar los recursos y optimizar el rendimiento de las inferencias al implementar modelos de aprendizaje automático. Puede utilizar los algoritmos integrados y los modelos prediseñados de la SageMaker IA, así como las imágenes de Docker prediseñadas, desarrolladas para el aprendizaje automático.

Para entrenar los modelos y optimizarlos para su implementación, consulte las imágenes prediseñadas de Docker. Optimice el rendimiento de los modelos con Neo. SageMaker Con SageMaker Neo, puede entrenar Apache TensorFlow MXNet PyTorch, ONNX y modelos. XGBoost A continuación, puede optimizarlos e implementarlos en procesadores ARM, Intel y Nvidia.

Escalado automático

Si sus puntos de conexión reciben cantidades variables de tráfico, puede probar el escalado automático. Por ejemplo, durante las horas punta, es posible que necesite más instancias para procesar solicitudes. Sin embargo, en los períodos de poco tráfico es posible que desee reducir el uso de recursos de computación. Para ajustar de forma dinámica el número de instancias que se aprovisionan como respuesta a los cambios de su carga de trabajo, consulte Escalado automático de los modelos de Amazon SageMaker AI.

Si tiene patrones de tráfico impredecibles o no quiere configurar políticas de escalado, también puede utilizar Inferencia sin servidor como punto de conexión. Luego, la SageMaker IA gestiona el escalado automático por ti. Durante los períodos de poco tráfico, la SageMaker IA reduce el tamaño de su terminal y, si el tráfico aumenta, la SageMaker IA amplía su punto final. Para obtener más información, consulte la documentación de Implemente modelos con Amazon SageMaker Serverless Inference.

PrivacidadTérminos del sitioPreferencias de cookies
© 2025, Amazon Web Services, Inc o sus afiliados. Todos los derechos reservados.