Implementar modelos para inferencia - Amazon SageMaker

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Implementar modelos para inferencia

Con Amazon SageMaker, puede empezar a obtener predicciones o inferencias a partir de sus modelos de aprendizaje automático entrenados. SageMaker ofrece una amplia selección de opciones de implementación de modelos e infraestructuras de aprendizaje automático para ayudarle a satisfacer todas sus necesidades de inferencia de aprendizaje automático. Con SageMaker Inference, puede escalar la implementación de sus modelos, administrar los modelos de manera más eficaz en producción y reducir la carga operativa. SageMaker le proporciona varias opciones de inferencia, como puntos finales en tiempo real para obtener inferencias de baja latencia, puntos finales sin servidor para una infraestructura totalmente gestionada y autoscalado, y puntos finales asíncronos para lotes de solicitudes. Al utilizar la opción de inferencia adecuada para su caso de uso, puede garantizar una implementación e inferencia eficientes y modelizadas.

Elegir una función

Existen varios casos de uso para implementar modelos de aprendizaje automático SageMaker. En esta sección se describen esos casos de uso, así como la SageMaker función que recomendamos para cada caso de uso.

Casos de uso

A continuación, se muestran los principales casos de uso para implementar modelos de aprendizaje automático con SageMaker.

  • Caso de uso 1: Implemente un modelo de aprendizaje automático en un entorno de código bajo o sin código. Para los principiantes o los principiantes SageMaker, puede implementar modelos previamente entrenados con Amazon SageMaker JumpStart a través de la interfaz de Amazon SageMaker Studio, sin necesidad de configuraciones complejas.

  • Caso de uso 2: utilice el código para implementar modelos de aprendizaje automático con más flexibilidad y control. Los profesionales de ML con experiencia pueden implementar sus propios modelos con configuraciones personalizadas para las necesidades de sus aplicaciones utilizando la ModelBuilder clase de SageMaker PythonSDK, que proporciona un control detallado de varios ajustes, como los tipos de instancias, el aislamiento de la red y la asignación de recursos.

  • Caso de uso 3: Implemente modelos de aprendizaje automático a escala. Para los usuarios avanzados y las organizaciones que desean gestionar modelos a escala durante la producción, utilicen las AWS SDK for Python (Boto3) herramientas Infrastructure as Code (IaC) y CI/CD que prefieran para aprovisionar recursos y automatizar la administración de recursos. AWS CloudFormation

En la siguiente tabla se describen las principales consideraciones y desventajas de las SageMaker funciones correspondientes a cada caso de uso.

Caso de uso 1 Caso de uso 2 Caso de uso 3
SageMaker característica Úselo JumpStart en Studio para acelerar el despliegue de su modelo fundamental. Implemente ModelBuilder modelos utilizando SageMaker Python SDK. Implemente y gestione modelos a escala con AWS CloudFormation.
Descripción Utilice la interfaz de usuario de Studio para implementar modelos previamente entrenados de un catálogo en puntos finales de inferencia preconfigurados. Esta opción es ideal para los científicos de datos ciudadanos o para cualquier persona que desee implementar un modelo sin configurar ajustes complejos. Utilice la ModelBuilder clase de Amazon SageMaker Python SDK para implementar su propio modelo y configurar los ajustes de implementación. Esta opción es ideal para científicos de datos con experiencia o para cualquier persona que tenga su propio modelo que implementar y requiera un control detallado. Utilice AWS CloudFormation la infraestructura como código (IaC) para el control programático y la automatización para implementar y administrar modelos. SageMaker Esta opción es ideal para usuarios avanzados que requieren despliegues consistentes y repetibles.
Optimizado para Implementaciones rápidas y optimizadas de modelos populares de código abierto Implementación de sus propios modelos Gestión continua de los modelos en producción
Consideraciones Falta de personalización para la configuración de los contenedores y las necesidades específicas de las aplicaciones Sin interfaz de usuario, requiere que se sienta cómodo desarrollando y manteniendo el código Python Requiere recursos organizativos y de gestión de la infraestructura, y también requiere estar familiarizado con las AWS CloudFormation plantillas AWS SDK for Python (Boto3) o con ellas.
Entorno recomendado Un SageMaker dominio Un entorno de desarrollo de Python configurado con sus AWS credenciales y el SageMaker Python SDK instalado, o SageMaker IDE uno como SageMaker JupyterLab El AWS CLI, un entorno de desarrollo local y herramientas de infraestructura como código (IaC) y CI/CD

Opciones adicionales

SageMaker ofrece diferentes opciones para sus casos de uso de inferencias, lo que le permite elegir entre la amplitud y profundidad técnicas de sus implementaciones:

  • Implementación de un modelo en un punto final. Al implementar el modelo, tenga en cuenta las siguientes opciones:

    • Inferencia en tiempo real. La inferencia en tiempo real es ideal para cargas de trabajo de inferencia en las que se requieren requisitos interactivos de baja latencia.

    • Implemente modelos con Amazon SageMaker Serverless Inference. Utilice Serverless Inference para implementar modelos sin configurar ni administrar ninguna de las infraestructuras subyacentes. Esta opción es ideal para cargas de trabajo que tienen períodos de inactividad entre picos de tráfico y que pueden tolerar los arranques en frío.

    • Inferencia asíncrona. pone en cola las solicitudes entrantes y las procesa de forma asíncrona. Esta opción es ideal para solicitudes con cargas útiles de gran tamaño (hasta 1 GB), tiempos de procesamiento prolongados (hasta una hora por toAsynchronous inferencia) y requisitos de latencia prácticamente en tiempo real

  • Optimización de costes. Para optimizar los costos de inferencia, considere las siguientes opciones:

    • Optimización del rendimiento de los modelos con SageMaker Neo. Utilice SageMaker Neo para optimizar y ejecutar sus modelos de aprendizaje automático con un mejor rendimiento y eficiencia, lo que le ayudará a minimizar los costes de procesamiento al optimizar automáticamente los modelos para que se ejecuten en entornos como los chips AWS Inferentia.

    • Escalado automático de los SageMaker modelos de Amazon. Utilice el escalado automático para ajustar dinámicamente los recursos informáticos de sus puntos finales en función de los patrones de tráfico entrante, lo que le ayuda a optimizar los costes al pagar solo por los recursos que utilice en un momento dado.