La puce AWS Inferentia avec DLAMI - AMI d'apprentissage profond

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

La puce AWS Inferentia avec DLAMI

AWS Inferentia est une puce d'apprentissage automatique personnalisée conçue pour AWS que vous puissiez l'utiliser pour des prédictions d'inférence de haute performance. Pour utiliser la puce, configurez une instance Amazon Elastic Compute Cloud et utilisez le kit de développement logiciel (SDK) AWS Neuron pour appeler la puce Inferentia. Pour offrir aux clients la meilleure expérience Inferentia, Neuron a été intégré au ( AWS Deep Learning AMI DLAMI).

Les rubriques suivantes vous montrent comment commencer à utiliser Inferentia avec le DLAMI.