La AWS Chip Inferentia con DLAMI - AWS Deep Learning AMIs

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

La AWS Chip Inferentia con DLAMI

AWS Inferentia es un chip de aprendizaje automático personalizado diseñado por AWS que puede utilizar para predicciones de inferencias de alto rendimiento. Para usar el chip, configure una instancia de Amazon Elastic Compute Cloud y use el AWS Kit de desarrollo de software Neuron (SDK) para invocar el chip Inferentia. Para ofrecer a los clientes la mejor experiencia de Inferentia, Neuron se ha incorporado al AWS Deep Learning AMIs (DLAMI).

Los siguientes temas le muestran cómo empezar a utilizar Inferentia con. DLAMI