Instances d'inférence recommandées - AMI d'apprentissage profond

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Instances d'inférence recommandées

AWS Les instances Inferentia sont conçues pour fournir des performances élevées et une rentabilité élevées pour les charges de travail d'inférence de modèles d'apprentissage profond. Plus précisément, les types d'instances Inf2 utilisent les puces AWS Inferentia et le SDK AWS Neuron, qui est intégré aux frameworks d'apprentissage automatique populaires tels que et. TensorFlow PyTorch

Les clients peuvent utiliser les instances Inf2 pour exécuter des applications d'inférence d'apprentissage automatique à grande échelle, telles que la recherche, les moteurs de recommandation, la vision par ordinateur, la reconnaissance vocale, le traitement du langage naturel, la personnalisation et la détection des fraudes, au moindre coût dans le cloud.

Note

La taille de votre modèle doit être un facteur de la sélection d’instance. Si votre modèle dépasse la RAM disponible d'une instance, sélectionnez un autre type d'instance avec suffisamment de mémoire pour votre application.

Pour plus d'informations sur la prise en main d' AWS Inferentia DLamis, consultez. La puce AWS Inferentia avec DLAMI

Suivant

Instances Trainium recommandées