Prácticas recomendadas -

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Prácticas recomendadas

En esta sección se proporciona una descripción general de las AWS mejores prácticas para MLOps.

Administración y separación de cuentas

AWS Las prácticas recomendadas para la administración de cuentas recomiendan dividir las cuentas en cuatro cuentas para cada caso de uso: experimentación, desarrollo, prueba y producción. También se recomienda tener una cuenta de gobierno para proporcionar MLOps recursos compartidos en toda la organización y una cuenta de lago de datos para proporcionar acceso centralizado a los datos. La razón de ello es separar por completo los entornos de desarrollo, prueba y producción, evitar las demoras provocadas por el incumplimiento de los límites del servicio debido a que varios casos de uso y equipos de ciencia de datos comparten el mismo conjunto de cuentas, y ofrecer una visión general completa de los costos de cada caso de uso. Por último, se recomienda separar los datos a nivel de cuenta, ya que cada caso de uso tiene su propio conjunto de cuentas.

Estándares de seguridad

Para cumplir con los requisitos de seguridad, se recomienda desactivar el acceso público a Internet y cifrar todos los datos con claves personalizadas. A continuación, puede implementar una instancia segura de Amazon SageMaker AI Studio en la cuenta de desarrollo en cuestión de minutos mediante Service Catalog. También puede obtener capacidades de auditoría y monitoreo de modelos para cada caso de uso mediante el uso de la SageMaker IA a través de plantillas implementadas con SageMaker AI Projects.

Capacidades de casos de uso

Una vez completada la configuración de la cuenta, los científicos de datos de tu organización pueden solicitar una nueva plantilla de casos de uso mediante SageMaker proyectos de SageMaker IA en AI Studio. Este proceso implementa la infraestructura necesaria para disponer de MLOps capacidades en la cuenta de desarrollo (con un soporte mínimo por parte de los equipos centrales), como los CI/CD procesos, las pruebas unitarias, las pruebas de modelos y la supervisión de modelos.

Luego, cada caso de uso se desarrolla (o se refactoriza en el caso de una base de código de aplicación existente) para que se ejecute en una arquitectura de IA mediante SageMaker el uso de capacidades de SageMaker IA, como el seguimiento de los experimentos, la explicabilidad de los modelos, la detección de sesgos y el monitoreo de la calidad. data/model Puedes añadir estas capacidades a cada canalización de casos de uso siguiendo los pasos de las canalizaciones de IA Pipelines. SageMaker

MLOps viaje de madurez

El proceso de MLOps madurez define las MLOps capacidades necesarias disponibles en una configuración de toda la empresa para garantizar que se cuente con un flujo de trabajo end-to-end modelo. El proceso de madurez consta de cuatro etapas:

  1. Inicial: en esta etapa, establece la cuenta de experimentación. También aseguras una nueva AWS cuenta en tu organización donde puedes experimentar con SageMaker Studio y otros servicios nuevos AWS .

  2. Repetible: en esta etapa, estandariza los repositorios de código y el desarrollo de la solución de ML. También adopta un enfoque de implementación en varias cuentas y estandariza los repositorios de código para respaldar la gobernanza y las auditorías de modelos a medida que escala horizontalmente la oferta. Se recomienda adoptar un enfoque de desarrollo de modelos listos para la producción con soluciones estándares que ofrece una cuenta de gobernanza. Los datos se almacenan en una cuenta de lago de datos y los casos de uso se desarrollan en dos cuentas. La primera cuenta es para la experimentación durante el periodo de exploración de la ciencia de datos. En esta cuenta, los científicos de datos descubren modelos para resolver el problema empresarial y experimentan con varias posibilidades. La otra cuenta es para el desarrollo, que se lleva a cabo una vez que se ha identificado el mejor modelo y el equipo de ciencia de datos está listo para trabajar en la canalización de inferencia.

  3. Fiable: en esta etapa, introduce las pruebas, la implementación y la implementación en varias cuentas. Debe comprender MLOps los requisitos e introducir las pruebas automatizadas. Implemente las MLOps mejores prácticas para garantizar que los modelos sean sólidos y seguros. Durante esta fase, introduzca dos cuentas de casos de uso nuevas: una cuenta de prueba para probar modelos desarrollados en un entorno que emula el entorno de producción y una cuenta de producción para ejecutar la inferencia de modelos durante las operaciones comerciales. Por último, utilice las pruebas, la implementación y el monitoreo automatizados de los modelos en una configuración de varias cuentas para asegurarse de que sus modelos cumplan con los requisitos de alta calidad y rendimiento que haya establecido.

  4. Escalable: en esta etapa, se crean plantillas y se ponen en producción varias soluciones de ML. MLOps Durante el proceso de creación del end-to-end modelo, comienzan a adoptarse varios equipos y casos de uso del aprendizaje automático. Para lograr escalabilidad en esta etapa, también debe aumentar el número de plantillas de su biblioteca de plantillas gracias a las contribuciones de una base más amplia de científicos de datos. También debe reducir el tiempo de creación de valor desde la idea hasta el modelo de producción para más equipos de la organización y realizar iteraciones a medida que vaya escalando.

Para obtener más información sobre el modelo de MLOps madurez, consulte MLOps la hoja de ruta básica para empresas con Amazon SageMaker AI en el blog AWS Machine Learning.