Instances d'inférence recommandées - AWS Apprentissage profond (deep learning) AMIs

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Instances d'inférence recommandées

AWS Les instances Inferentia sont conçues pour fournir des performances élevées et une rentabilité élevées pour les charges de travail d'inférence de modèles d'apprentissage profond. Plus précisément, les types d'instances Inf2 utilisent les puces AWS Inferentia et le AWS Neuron SDK, qui est intégré aux frameworks d'apprentissage automatique populaires tels que et. TensorFlow PyTorch

Les clients peuvent utiliser les instances Inf2 pour exécuter des applications d'inférence d'apprentissage automatique à grande échelle, telles que la recherche, les moteurs de recommandation, la vision par ordinateur, la reconnaissance vocale, le traitement du langage naturel, la personnalisation et la détection des fraudes, au moindre coût dans le cloud.

Note

La taille de votre modèle doit être prise en compte dans le choix d'une instance. Si votre modèle dépasse le nombre d'instances disponiblesRAM, choisissez un autre type d'instance avec suffisamment de mémoire pour votre application.

Pour plus d'informations sur la prise en main d' AWS InferentiaDLAMIs, consultezLa puce AWS Inferentia avec DLAMI.

Suivant

Instances Trainium recommandées