Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Tipos de instancia para algoritmos integrados
Para entrenar y alojar los algoritmos de Amazon SageMaker AI, recomendamos utilizar los siguientes tipos de EC2 instancias de Amazon:
-
ml.m5.xlarge, ml.m5.4xlarge y ml.m5.12xlarge
-
ml.c5.xlarge, ml.c5.2xlarge y ml.c5.8xlarge
-
ml.p3.xlarge, ml.p3.8xlarge y ml.p3.16xlarge
La mayoría de los algoritmos de Amazon SageMaker AI se han diseñado para aprovechar la computación con GPU para el entrenamiento. Para la mayoría de los entrenamientos de algoritmos, admitimos las instancias de GPU P2, P3, G4dn y G5. A pesar de que los costes por instancia son más altos, GPUs entrene más rápido, lo que los hace más rentables. Las excepciones se mencionan en esta guía.
El tamaño y el tipo de datos pueden tener un efecto notable en la configuración de hardware que es más efectiva. Cuando se realiza el entrenamiento del mismo modelo de forma periódica, la prueba inicial en un espectro de tipos de instancias puede detectar configuraciones que son más rentables a largo plazo. Además, es posible que los algoritmos que se entrenan de manera más eficiente no GPUs requieran una GPUs inferencia eficiente. Prueba a determinar la solución más rentable. Para obtener una recomendación automática de instancias o realizar pruebas de carga personalizadas, usa Amazon SageMaker Inference Recommender.
Para obtener más información sobre las especificaciones de hardware de SageMaker IA, consulte Tipos de instancias de Amazon SageMaker AI ML