Options de déploiement de modèles sur Amazon SageMaker - Amazon SageMaker

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Options de déploiement de modèles sur Amazon SageMaker

Après avoir entraîné votre modèle d'apprentissage automatique, vous pouvez le déployer à l'aide d'Amazon SageMaker pour obtenir des prédictions. Amazon SageMaker prend en charge les méthodes suivantes pour déployer un modèle, en fonction de votre cas d'utilisation :

SageMaker fournit également des fonctionnalités permettant de gérer les ressources et d'optimiser les performances d'inférence lors du déploiement de modèles d'apprentissage automatique :

  • Pour gérer les modèles sur les appareils de périphérie afin d'optimiser, de sécuriser, de surveiller et de gérer les modèles d'apprentissage automatique sur des flottes d'appareils de périphérie, voirModélisez le déploiement à la périphérie avec SageMaker Edge Manager. Cela s'applique aux appareils périphériques tels que les caméras intelligentes, les robots, les ordinateurs personnels et les appareils mobiles.

  • Pour optimiser Gluon, Keras,,MXNet, PyTorch TensorFlow, TensorFlow -Lite et les ONNX modèles d'inférence sur les machines Android, Linux et Windows basés sur des processeurs d'Ambarella, Intel, NvidiaARM, QualcommNXP, Texas Instruments et Xilinx, voir. Optimisation des performances des modèles avec SageMaker Neo

Pour plus d'informations sur l'ensemble de ces options de déploiement, consultez Déploiement de modèles pour l'inférence.