Seleccione sus preferencias de cookies

Usamos cookies esenciales y herramientas similares que son necesarias para proporcionar nuestro sitio y nuestros servicios. Usamos cookies de rendimiento para recopilar estadísticas anónimas para que podamos entender cómo los clientes usan nuestro sitio y hacer mejoras. Las cookies esenciales no se pueden desactivar, pero puede hacer clic en “Personalizar” o “Rechazar” para rechazar las cookies de rendimiento.

Si está de acuerdo, AWS y los terceros aprobados también utilizarán cookies para proporcionar características útiles del sitio, recordar sus preferencias y mostrar contenido relevante, incluida publicidad relevante. Para aceptar o rechazar todas las cookies no esenciales, haga clic en “Aceptar” o “Rechazar”. Para elegir opciones más detalladas, haga clic en “Personalizar”.

Implementar modelos para inferencia

Modo de enfoque
Implementar modelos para inferencia - Amazon SageMaker AI

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Con Amazon SageMaker AI, puede empezar a obtener predicciones o inferencias a partir de sus modelos de aprendizaje automático entrenados. SageMaker La IA ofrece una amplia selección de opciones de implementación de modelos e infraestructuras de aprendizaje automático para ayudarle a satisfacer todas sus necesidades de inferencia de aprendizaje automático. Con SageMaker AI Inference, puede escalar la implementación de sus modelos, gestionar los modelos de forma más eficaz en producción y reducir la carga operativa. SageMaker La IA le proporciona varias opciones de inferencia, como puntos finales en tiempo real para obtener inferencias de baja latencia, puntos finales sin servidor para una infraestructura totalmente gestionada y autoscalado, y puntos finales asíncronos para lotes de solicitudes. Al utilizar la opción de inferencia adecuada para el caso de uso, puede garantizar una implementación e inferencia eficaces de los modelos.

Selección de una característica

Existen varios casos de uso para implementar modelos de aprendizaje automático con IA. SageMaker En esta sección se describen esos casos de uso, así como la función de SageMaker IA que recomendamos para cada caso de uso.

Casos de uso

Los siguientes son los principales casos de uso para implementar modelos de aprendizaje automático con SageMaker IA.

  • Caso de uso 1: implementación de un modelo de machine learning en un entorno sin código o con poco código. Para los principiantes o los principiantes en la SageMaker IA, puede implementar modelos previamente entrenados con Amazon SageMaker JumpStart a través de la interfaz de Amazon SageMaker Studio, sin necesidad de configuraciones complejas.

  • Caso de uso 2: uso del código para implementar modelos de machine learning con mayor flexibilidad y control. Los profesionales de ML con experiencia pueden implementar sus propios modelos con configuraciones personalizadas para las necesidades de sus aplicaciones utilizando la ModelBuilder clase de Python de SageMaker IASDK, que proporciona un control detallado de varios ajustes, como los tipos de instancias, el aislamiento de la red y la asignación de recursos.

  • Caso de uso 3: implementación de modelos de machine learning a escala. Para los usuarios avanzados y las organizaciones que desean gestionar modelos a escala durante su fase de producción, utilicen las herramientas de infraestructura como código (IaC) AWS SDK for Python (Boto3) y AWS CloudFormation CI/CD que prefieran para aprovisionar recursos y automatizar la administración de recursos.

En la siguiente tabla, se describen las principales consideraciones y desventajas de las funciones de SageMaker IA correspondientes a cada caso de uso.

Caso de uso 1 Caso de uso 2 Caso de uso 3
SageMaker Función de IA JumpStart Utilícela en Studio para acelerar la implementación de su modelo fundamental. Implemente ModelBuilder modelos utilizando SageMaker Python SDK. Implemente y gestione modelos a escala con AWS CloudFormation.
Descripción Utilice la interfaz de usuario de Studio para implementar modelos previamente entrenados de un catálogo en puntos de conexión de inferencia preconfigurados. Esta opción es ideal para científicos de datos no especializados o para cualquier persona que desee implementar un modelo sin configurar ajustes complejos. Utilice la ModelBuilder clase de Python de Amazon SageMaker AI SDK para implementar su propio modelo y configurar los ajustes de implementación. Esta opción es ideal para científicos de datos con experiencia o para cualquier persona que tenga su propio modelo que implementar y requiera un control pormenorizado. Utilice AWS CloudFormation la infraestructura como código (IaC) para el control programático y la automatización para implementar y administrar modelos de SageMaker IA. Esta opción es ideal para usuarios avanzados que requieren implementaciones coherentes y repetibles.
Optimizada para Implementaciones rápidas y optimizadas de modelos populares de código abierto Implementación de sus propios modelos Administración continua de los modelos en producción
Consideraciones Falta de personalización para la configuración de los contenedores y las necesidades específicas de las aplicaciones Sin interfaz de usuario, requiere que tenga experiencia en el desarrollo y el mantenimiento de código de Python Requiere recursos organizativos y de gestión de la infraestructura, y también requiere estar familiarizado con las plantillas AWS SDK for Python (Boto3) o con ellas. AWS CloudFormation
Entorno recomendado Un dominio de SageMaker IA Un entorno de desarrollo de Python configurado con tus AWS credenciales y el SageMaker Python SDK instalado, o una SageMaker IA IDE como JupyterLab de SageMaker The AWS CLI, un entorno de desarrollo local y herramientas de infraestructura como código (IaC) y CI/CD

Opciones adicionales

SageMaker La IA ofrece diferentes opciones para sus casos de uso de inferencias, lo que le permite elegir entre la amplitud y profundidad técnicas de sus despliegues:

  • Implementación de un modelo en un punto de conexión: a la hora de implementar el modelo, tenga en cuenta las siguientes opciones:

    • Inferencia en tiempo real: la inferencia en tiempo real es ideal para cargas de trabajo de inferencia con requisitos interactivos y de baja latencia.

    • Implemente modelos con Amazon SageMaker Serverless Inference: utilice Inferencia sin servidor para implementar modelos sin configurar ni administrar ninguna de las infraestructuras subyacentes. Esta opción es ideal para cargas de trabajo con períodos de inactividad entre picos de tráfico y que pueden tolerar arranques en frío.

    • Inferencia asíncrona: pone en cola las solicitudes entrantes y las procesa de forma asíncrona. Esta opción es ideal para solicitudes con cargas útiles de gran tamaño (hasta 1 GB), tiempos de procesamiento prolongados (hasta una hora por toAsynchronous inferencia) y requisitos de latencia prácticamente en tiempo real

  • Optimización de costos: para optimizar los costos de inferencia, tenga en cuenta las siguientes opciones:

    • Optimización del rendimiento de los modelos con SageMaker Neo. Utilice SageMaker Neo para optimizar y ejecutar sus modelos de aprendizaje automático con un mejor rendimiento y eficiencia, lo que le ayudará a minimizar los costes de procesamiento al optimizar automáticamente los modelos para que se ejecuten en entornos como los chips AWS Inferentia.

    • Escalado automático de los modelos de Amazon SageMaker AI: utilice el escalado automático para ajustar dinámicamente los recursos de computación de los puntos de conexión en función de los patrones de tráfico entrante, lo que le ayuda a optimizar los costos al pagar solo por los recursos que utilice en un momento determinado.

PrivacidadTérminos del sitioPreferencias de cookies
© 2025, Amazon Web Services, Inc o sus afiliados. Todos los derechos reservados.