Hébergement de plusieurs modèles avec des points de terminaison multimodèles - Amazon SageMaker

Hébergement de plusieurs modèles avec des points de terminaison multimodèles

Pour créer un point de terminaison pouvant héberger plusieurs modèles, utilisez des points de terminaison multimodèles. Les points de terminaison multimodèles offrent une solution évolutive et économique pour le déploiement d'un grand nombre de modèles. Ils utilisent un conteneur de service partagé capable d'héberger plusieurs modèles. Cela réduit les coûts d'hébergement en améliorant l'utilisation des points de terminaison par rapport à l'utilisation des points de terminaison à modèle unique. Cela réduit aussi les frais de déploiement, car Amazon SageMaker gère le chargement des modèles en mémoire et leur mise à l'échelle en fonction des modèles de trafic.

Les points de terminaison multimodèles permettent également le partage du temps des ressources de mémoire sur l'ensemble de vos modèles. Cela fonctionne mieux lorsque les modèles sont assez similaires en taille et en latence d'invocation. Dans ce cas, les points de terminaison multimodèles peuvent utiliser efficacement des instances sur tous les modèles. Si vous avez des modèles qui ont des exigences de transactions par seconde (TPS) significativement plus élevées ou de latence, nous vous recommandons de les héberger sur des points de terminaison dédiés. Les points de terminaison multimodèles conviennent également aux scénarios à même de tolérer les pénalités de latence occasionnelles liées au démarrage à froid et qui interviennent lors de l'appel de modèles peu utilisés.

Les points de terminaison multimodèles prennent en charge les tests A/B. Ils fonctionnent avec Auto Scaling et AWS PrivateLink. Vous pouvez utiliser des conteneurs multimodèles avec des pipelines d'inférence série, mais un seul conteneur multimodèle peut être inclus dans un pipeline d'inférence. Vous ne pouvez pas utiliser de conteneurs multimodèles avec Amazon Elastic Inference.

Vous pouvez utiliser AWS SDK for Python (Boto) ou la console SageMaker pour créer un point de terminaison multimodèles. Vous pouvez utiliser des points de terminaison multimodèles avec des conteneurs personnalisés en intégrant la bibliothèque Multi Model Server .

Algorithmes et cadres pris en charge

Les conteneurs d'inférence pour les algorithmes et cadres suivants prennent en charge les points de terminaison multimodèles :

Pour utiliser n'importe quel autre cadre ou algorithme, utilisez la boîte à outils d'inférence SageMaker pour créer un conteneur prenant en charge les points de terminaison multimodèles. Pour de plus amples informations, veuillez consulter Créer votre propre conteneur avec le serveur multimodèle.

Exemples de blocs-notes pour les points de terminaison multimodèles

Pour obtenir un exemple de bloc-notes qui utilise SageMaker pour déployer plusieurs modèles XGBoost sur un point de terminaison, veuillez consulter l'exemple de bloc-notes XGBoost de point de terminaison multimodèles. Pour obtenir un exemple de bloc-notes qui montre comment configurer et déployer un conteneur personnalisé prenant en charge les points de terminaison multimodèles dans SageMaker, veuillez consulter l'exemple de bloc-notes BYOC de point de terminaison multimodèles. Pour obtenir des instructions sur la création et l'accès aux instances de bloc-notes Jupyter que vous pouvez utiliser pour exécuter l'exemple dans SageMaker, veuillez consulter Utilisation des instances de bloc-notes Amazon SageMaker. Une fois l'instance de bloc-notes créée et ouverte, choisissez l'onglet SageMaker Examples (Exemples SageMaker) pour afficher la liste de tous les exemples SageMaker. Le bloc-notes Multi-Model Endpoint (Point de terminaison multimodèle) se trouve dans la section ADVANCED FUNCTIONALITY (FONCTIONNALITÉS AVANCÉES) . Pour ouvrir un bloc-notes, choisissez son onglet Use (Utiliser), puis Create copy (Créer une copie).

Fonctionnement des points de terminaison multimodèles

SageMaker gère le cycle de vie des modèles hébergés sur des points de terminaison multimodèles dans la mémoire du conteneur. Au lieu de télécharger tous les modèles d'un compartiment d'un compartiment Amazon S3 vers le conteneur lorsque vous créez le point de terminaison, SageMaker les charge dynamiquement lorsque vous les appelez. Lorsque SageMaker reçoit une demande d'appel pour un modèle particulier, le service effectue les opérations suivantes :

  1. Route la demande vers une instance située derrière le point de terminaison.

  2. Télécharge le modèle du compartiment S3 vers le volume de stockage de cette instance.

  3. Charge le modèle dans la mémoire du conteneur sur cette instance. Si le modèle est déjà chargé dans la mémoire du conteneur, l'appel est plus rapide, car SageMaker n'a pas besoin de le télécharger et de le charger.

SageMaker continue d'acheminer les demandes d'un modèle vers l'instance où le modèle est déjà chargé. Toutefois, si le modèle reçoit de nombreuses demandes d'appel et qu'il existe des instances supplémentaires pour le point de terminaison multimodèles, SageMaker achemine certaines demandes vers une autre instance pour absorber le trafic. Si le modèle n'est pas déjà chargé sur la deuxième instance, il est téléchargé sur le volume de stockage de cette instance et chargé dans la mémoire du conteneur.

Lorsque l'utilisation de la mémoire d'une instance est élevée et que SageMaker doit charger un autre modèle en mémoire, le service décharge les modèles inutilisés du conteneur de cette instance pour s'assurer qu'il y a suffisamment de mémoire pour charger le modèle. Les modèles qui sont déchargés restent sur le volume de stockage de l'instance et peuvent être chargés dans la mémoire du conteneur ultérieurement sans être téléchargés à nouveau depuis le compartiment S3. Si le volume de stockage de l'instance atteint sa capacité, SageMaker supprime tous les modèles inutilisés du volume de stockage.

Pour supprimer un modèle, arrêtez l'envoi de demandes et supprimez-le du compartiment S3. SageMaker fournit une capacité de point de terminaison multimodèles dans un conteneur de service. L'ajout de modèles à un point de terminaison multimodèle et leur suppression ne nécessitent pas la mise à jour du point de terminaison lui-même. Pour ajouter un modèle, vous le chargez dans le compartiment S3 et vous l'appelez. Vous n'avez pas besoin de modifier le code pour l'utiliser.

Lorsque vous mettez à jour un point de terminaison multimodèle, les demandes d'appel sur le point de terminaison peuvent rencontrer des latences plus élevées lorsque le trafic est dirigé vers les instances du point de terminaison mis à jour.

Définition du comportement de mise en cache des modèles de point de terminaison multimodèles SageMaker

Par défaut, les points de terminaison multimodèles mettent en cache des modèles fréquemment utilisés en mémoire et sur disque pour fournir une inférence de faible latence. Les modèles mis en cache sont déchargés et/ou supprimés du disque uniquement lorsqu'un conteneur manque de mémoire ou d'espace disque pour s'adapter à un modèle nouvellement ciblé.

Vous pouvez modifier le comportement de mise en cache d'un point de terminaison multimodèles et activer ou désactiver explicitement la mise en cache de modèle en définissant le paramètre ModelCacheSetting lorsque vous appelez create_model.

Nous vous recommandons de définir la valeur du paramètre ModelCacheSetting sur Disabled pour les cas d'utilisation qui ne bénéficient pas de la mise en cache des modèles. Par exemple, lorsqu'un grand nombre de modèles doivent être servis à partir du point de terminaison, mais que chaque modèle n'est appelé qu'une seule fois (ou très rarement). Dans de tels cas d'utilisation, définir la valeur du paramètre ModelCacheSetting sur Disabled permet des transactions par seconde (TPS) plus élevées pour des demandes invoke_endpointpar rapport au mode de mise en cache par défaut. Dans ces cas d'utilisation, le TPS est plus élevé car SageMaker effectue les opérations suivantes après la demande invoke_endpoint :

  • Décharge de manière asynchrone le modèle de la mémoire et le supprime du disque immédiatement après qu'il a été appelé.

  • Propose une concurrence plus élevée pour le téléchargement et le chargement de modèles dans le conteneur d'inférence. La concurrence est un facteur du nombre de vCPU de l'instance de conteneur.

Pour obtenir des instructions sur le choix d'un type d'instance ML de SageMaker pour un point de terminaison multimodèles, veuillez consulter Recommandations d'instance pour les déploiements de points de terminaison multimodèles .

Recommandations d'instance pour les déploiements de points de terminaison multimodèles

Plusieurs éléments doivent être pris en compte lors de la sélection d'un type d'instance ML de SageMaker pour un point de terminaison multimodèle. Provisionnez suffisamment de capacité Amazon Elastic Block Store (Amazon EBS) pour tous les modèles qui doivent être servis. Équilibrez les performances (minimisez les démarrages à froid) et les coûts (ne surprovisionnez pas la capacité d'instance). Pour de plus amples informations sur le volume de stockage attaché par SageMaker à chaque type d'instance d'un point de terminaison et d'un point de terminaison multimodèles, veuillez consulter Hébergement de volumes de stockage d'instance . Pour un conteneur configuré pour s'exécuter en mode MultiModel, le volume de stockage provisionné pour ses instances a plus de mémoire. Cela permet à d'autres modèles d'être mis en cache sur le volume de stockage d'instance.

Lorsque vous choisissez un type d'instance ML SageMaker, tenez compte des éléments suivants :

  • Les points de terminaison multimodèles ne sont pas pris en charge sur les types d'instances GPU.

  • Distribution du trafic (modèles d'accès) vers les modèles que vous souhaitez héberger derrière le point de terminaison multimodèle, ainsi que la taille du modèle (nombre de modèles pouvant être chargés en mémoire sur l'instance) :

    • Pensez à la quantité de mémoire sur une instance comme l'espace de cache pour les modèles à charger. Pensez au nombre de processeurs virtuels comme limite de concurrence pour effectuer une inférence sur les modèles chargés (en supposant que l'appel d'un modèle est lié à l'UC).

    • Une capacité de mémoire d'instance supérieure vous permet d'avoir plus de modèles chargés et prêts à servir les demandes d'inférence. Vous n'avez pas besoin de perdre de temps à charger le modèle.

    • Un nombre plus élevé de vCPU vous permet d'appeler plus de modèles uniques simultanément (en supposant encore une fois que l'inférence est liée à l'UC).

    • Avoir une mémoire « slack » disponible pour que les modèles inutilisés puissent être déchargés, et en particulier pour les points de terminaison multi-modèles avec plusieurs instances. Si une instance ou une zone de disponibilité échoue, les modèles de ces instances seront reroutés vers d'autres instances derrière le point de terminaison.

  • Tolérance aux temps de chargement/téléchargement :

    • Les familles de types d'instance d (par exemple, m5d, c5d ou r5d) sont équipées d'un SSD NVMe (mémoire non volatile express), qui offre des performances d'E/S élevées et peut réduire le temps nécessaire pour télécharger les modèles sur le volume de stockage et pour charger le modèle à partir du volume de stockage.

    • Comme les types d'instances d sont livrés avec un stockage SSD NVMe, SageMaker n'attache pas un volume de stockage Amazon EBS aux instances de calcul ML qui hébergent le point de terminaison multimodèles. Auto Scaling fonctionne mieux lorsque les modèles sont similaires en taille et homogènes, c'est-à-dire lorsqu'ils ont des exigences de ressources et de latence d'inférence similaires.

Dans certains cas, vous pouvez décider de réduire les coûts en choisissant un type d'instance qui ne peut pas contenir tous les modèles ciblés en mémoire simultanément. SageMaker décharge dynamiquement les modèles lorsqu'il manque de mémoire pour libérer de l'espace pour un modèle nouvellement ciblé. Pour les modèles rarement demandés, vous allez payer un prix avec la latence de charge dynamique. Dans les cas où les besoins de latence sont plus stricts, vous pouvez opter pour des types d'instance plus importants ou pour plus d'instances. En investissant du temps à l'avance pour effectuer des tests et des analyses de performance appropriés, les déploiements de production fructueux seront très bénéfiques.

Vous pouvez utiliser la statistique Average de la métrique ModelCacheHit pour surveiller le ratio des demandes où le modèle est déjà chargé. Vous pouvez utiliser la statistique SampleCount de la métrique ModelUnloadingTime pour surveiller le nombre de demandes de déchargement envoyées au conteneur pendant une période donnée. Si les modèles sont déchargés trop fréquemment (indicateur de l'écrasement, où les modèles sont déchargés et chargés à nouveau parce qu'il n'y a pas suffisamment d'espace cache pour le jeu de modèles de travail), envisagez d'utiliser un type d'instance plus grand avec plus de mémoire ou d'augmenter le nombre d'instances derrière le point de terminaison multimodèle. Pour les points de terminaison multi-modèles avec plusieurs instances, sachez qu'un modèle peut être chargé sur plus d'une instance.

Les points de terminaison multimodèles SageMaker prennent entièrement en charge Auto Scaling, qui gère les replicas de modèles pour assurer la mise à l'échelle des modèles en fonction des schémas de trafic. Nous vous recommandons de configurer votre point de terminaison multimodèle et la taille de vos instances en tenant compte de tout ce qui précède et de configurer la mise à l'échelle automatique pour votre point de terminaison. Les taux d'invocation utilisés pour déclencher un événement d'échelle automatique sont basés sur l'ensemble agrégé des prédictions à travers l'ensemble complet des modèles servis par le point de terminaison.