Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Instances d'inférence recommandées
AWS Les instances Inferentia sont conçues pour fournir des performances élevées et une rentabilité élevées pour les charges de travail d'inférence de modèles d'apprentissage profond. Plus précisément, les types d'instances Inf2 utilisent les puces AWS Inferentia et le AWS Neuron SDK
Les clients peuvent utiliser les instances Inf2 pour exécuter des applications d'inférence d'apprentissage automatique à grande échelle, telles que la recherche, les moteurs de recommandation, la vision par ordinateur, la reconnaissance vocale, le traitement du langage naturel, la personnalisation et la détection des fraudes, au moindre coût dans le cloud.
Note
La taille de votre modèle doit être prise en compte dans le choix d'une instance. Si votre modèle dépasse le nombre d'instances disponiblesRAM, choisissez un autre type d'instance avec suffisamment de mémoire pour votre application.
Les instances Amazon EC2 Inf2
possèdent jusqu'à 16 puces AWS Inferentia et un débit réseau de 100 Gbit/s.
Pour plus d'informations sur la prise en main d' AWS InferentiaDLAMIs, consultezLa puce AWS Inferentia avec DLAMI.
Suivant
Instances Trainium recommandées