Instancias de Inferentia recomendadas - AMI de aprendizaje profundo

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Instancias de Inferentia recomendadas

AWS Las instancias de Inferentia están diseñadas para proporcionar un alto rendimiento y rentabilidad para las cargas de trabajo de inferencia de modelos de aprendizaje profundo. En concreto, los tipos de instancias de Inf2 utilizan chips AWS Inferentia y el SDK AWS Neuron, que está integrado con los marcos de aprendizaje automático más populares, como y. TensorFlow PyTorch

Los clientes pueden usar las instancias de Inf2 para ejecutar aplicaciones de inferencia de machine learning a gran escala, como búsquedas, motores de recomendación, visión artificial, reconocimiento de voz, procesamiento del lenguaje natural, personalización y detección de fraudes, al menor costo en la nube.

nota

El tamaño del modelo debe ser un factor a tener en cuenta para la selección de una instancia. Si su modelo supera la RAM disponible de una instancia, seleccione otro tipo de instancia con memoria suficiente para la aplicación.

Para obtener más información sobre cómo empezar a utilizar Inferentia DLamis, consulte. AWS El chip AWS Inferentia con DLAMI

Tema siguiente

Instancias de Trainium recomendadas