4. Procesos robustos y promoción - AWS Guía prescriptiva

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

4. Procesos robustos y promoción

Las canalizaciones ofrecen muchas opciones para el ajuste de hiperparámetros, el AutoML y las rutinas de procesamiento. Las canalizaciones se registran de un extremo a otro. Los pipelines robustos pueden ejecutar la capacitación en paralelo en múltiples instancias y marcos, escalando los tamaños de carga según sea necesario. Las canalizaciones sólidas pueden promover los modelos para que pasen a la fase de producción, se desplieguen en tiempo real, se transmitan o se distribuyan por lotes. Estas implementaciones pueden admitir la inferencia de un solo modelo o de varios modelos.

4.1 Capacitación distribuida y a gran escala

Un sistema de aprendizaje automático maduro admite la capacidad de ejecutar el entrenamiento en grandes instancias optimizadas para la computación en paralelo. Cuenta con las herramientas necesarias para garantizar que estos recursos se utilicen en su totalidad y que la capacitación se amplíe de manera uniforme en todo el clúster de procesamiento.

4.2 Support para múltiples marcos

Los desarrolladores pueden portar diferentes marcos de plataformas, como PyTorch Flax, para realizar trabajos de formación e inferencia. Del mismo modo, se admiten y se pueden utilizar diferentes idiomas y versiones. Cambiar a otro marco no estropeará el sistema.

4.3 Ajuste de hiperparámetros

Un paso de ajuste de hiperparámetros forma parte del proceso de formación. Los hiperparámetros de los modelos implementados se ajustan. Hay varias opciones disponibles para ajustar los hiperparámetros. Para mejorar la precisión, al menos una de las opciones de ajuste debe tener un enfoque o inferencia bayesiano.

4.4 Opción AutoML

Para reducir la experimentación y la comparación manuales, un sistema de aprendizaje automático avanzado admite la ejecución de AutoML, que selecciona automáticamente la mejor canalización de funciones, hiperparámetros y modelo. Tenga en cuenta que AutoML es una función que se puede usar de forma pragmática, pero no es una panacea.

4.5 Soporte de inferencias: en tiempo real

Esto se denomina comúnmente modelo como servicio (MaaS). El sistema admite la inferencia en tiempo real con las operaciones de la API REST, para realizar solicitudes de inferencia a pedido. Es capaz de ofrecer una infraestructura MaaS en la que el modelo puede escalarse tanto horizontal como verticalmente como una API independiente o como un punto final asociado a otras aplicaciones. Como alternativa, es posible implementarla mediante tecnología sin servidor.

4.6 Soporte de inferencias: streaming

Los modelos se pueden promover a un formato de inferencia en tiempo real, como Amazon Kinesis o Amazon Managed Streaming for Apache Kafka Kafka, mediante el cual la inferencia se ejecuta en streaming en el modelo. Esto requiere completar al menos el 90 por ciento de la lista de verificación, ya que las barreras, la observabilidad y el monitoreo son esenciales para la inferencia en tiempo real.

4.7 Soporte de inferencias: por lotes

El sistema admite el despliegue por lotes de modelos como trabajos programados o iniciados. El sistema puede ejecutar modelos como parte de un proceso de extracción, transformación y carga (ETL) o de forma aislada. Los trabajos por lotes registran el estado de cada paso y se ejecutan siguiendo un patrón ordenado, como un gráfico acíclico dirigido. Como alternativa, los trabajos pueden escribir en una base de datos, que actúa como servidor de inferencia de modelos.

4.8 Rutinas de preprocesamiento y posprocesamiento

Cuando es necesario, los datos se incluyen como parte del proceso de admisión del modelo o de los trabajos por lotes. Si hay varios modelos o varios pasos en juego, las rutinas de posprocesamiento se encargan de caracterizar los datos.

4.9 Capacidad para invocar modelos jerárquicos o simultáneos

El sistema ML puede implementar muchos modelos juntos o ejecutarlos de forma secuencial. Lo primero significa alojar una flota de recursos en un único modelo de punto final. Esto último implica que varios modelos deben ejecutarse de forma encadenada uno tras otro. El sistema puede gestionar estos dos tipos de complejidad de forma resiliente.

4.10 Estrategias de escalado horizontal y vertical

Una canalización debe tener la capacidad de soportar ambos tipos de estrategias de escalado, tanto para la formación como para la inferencia. El sistema ML puede aumentar su tamaño y distribuir el tráfico entre varias máquinas cuando aumentan la latencia o el rendimiento. Se establecen políticas para este tipo de comportamiento y tienen en cuenta la asignación óptima de los recursos.

4.11 registro End-to-end

El equipo de desarrollo debe tener el registro integrado en todo el código de canalización para que el registro pueda capturar las entradas, las salidas y los pasos intermedios del sistema. El registro debería permitir el seguimiento de las ejecuciones en proceso y la depuración de errores.