Politique de prise en charge des SageMaker images prédéfinie - Amazon SageMaker

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Politique de prise en charge des SageMaker images prédéfinie

Toutes les SageMaker images prédéfinies, y compris les conteneurs spécifiques au framework, les conteneurs d'algorithmes intégrés, les algorithmes et les packages de modèles répertoriés dans, ainsi que les AWS Deep Learning Containers AWS Marketplace, sont régulièrement scannées pour détecter les vulnérabilités courantes répertoriées par le programme Common Vulnerabilities and Exposures (CVE) et la National Vulnerability Database (NVD). Pour plus d'informations sur les CVE, consultez les questions fréquemment posées (FAQ) relatives aux CVE. Les images de conteneur prédéfinies prises en charge reçoivent une version mineure mise à jour après tout correctif de sécurité.

Toutes les images de conteneur prises en charge sont régulièrement mises à jour pour prendre en compte les CVE critiques. Pour les scénarios très graves, nous recommandons aux clients de créer et d'héberger une version corrigée du conteneur dans leur propre Amazon Elastic Container Registry (Amazon ECR).

Si vous utilisez une version d'image de conteneur qui n'est plus prise en charge, il se peut que vous ne disposiez pas des pilotes, bibliothèques et packages appropriés les plus récents. Pour une up-to-date version ultérieure, nous vous recommandons de passer à l'un des frameworks pris en charge disponibles en utilisant la dernière image de votre choix.

AWS Politique d'assistance relative aux Deep Learning Containers (DLC)

AWS Les Deep Learning Containers sont un ensemble d'images Docker destinées à la formation et au service de modèles de deep learning. Pour voir les images disponibles, consultez Available Deep Learning Containers Images dans le GitHub référentiel Deep Learning Containers.

Les DLC ont atteint leur date de fin de mise à jour 365 jours après leur date GitHub de sortie. Les mises à jour des correctifs pour les DLC ne sont pas des mises à jour « sur place ». Vous devez supprimer l'image existante sur votre instance et extraire la dernière image du conteneur sans mettre fin à votre instance. Pour plus d'informations, reportez-vous à la section Framework Support Policy du AWS Deep Learning Containers Developer Guide.

Consultez le tableau des politiques de support du framework AWS Deep Learning Containers pour vérifier quels frameworks et quelles versions sont activement pris en charge pour les AWS DLC. Vous pouvez faire référence au framework associé à un DLC dans le tableau des politiques de support pour toutes les images qui ne sont pas explicitement répertoriées. Par exemple, vous pouvez faire référence PyTorchdans le tableau des politiques de support aux images DLC telles que huggingface-pytorch-inference etstabilityai-pytorch-inference.

Note

Si un DLC utilise le SDK HuggingFace Transformers, seule l'image contenant la dernière version de Transfromers est prise en charge. Pour plus d'informations, consultez HuggingFacela région de votre choix dans les chemins de registre Docker et l'exemple de code.

SageMaker Politique de support du conteneur ML Framework

Les conteneurs SageMaker ML Framework sont un ensemble d'images Docker destinées à la formation et au traitement des charges de travail d'apprentissage automatique dans des environnements optimisés pour des frameworks courants tels que XGBoost et Scikit Learn. Pour afficher les conteneurs SageMaker ML Framework disponibles, consultez les chemins de registre Docker et les exemples de code. Accédez à la AWS région de votre choix et parcourez les images à l'aide de la balise (algorithme). SageMaker Les conteneurs ML Framework respectent également la politique de support du framework AWS Deep Learning Containers.

Pour récupérer la dernière version d'image pour XGBoost 1.7-1 en mode framework, utilisez les commandes du SDK suivantes : SageMaker Python

from sagemaker import image_uris image_uris.retrieve(framework='xgboost',region='us-east-1',version='1.7-1')
Framework Version actuelle GitHub GA Fin du patch

XGBoost

1,7-1

06/03/2023

06/03/2025

XGBoost

1,5-1

21/02/2022

21/02/2023

XGBoost

1.3-1

21/05/2021

21/05/2022

XGBoost

1.2-2

20/09/2020 20/09/2021

XGBoost

1,2-1

19/07/2020 19/07/2021

XGBoost

1,0-1

>4 ans

Non pris en charge

Scikit-Learn

1,2-1

06/03/2023

06/03/2025

Scikit-Learn

1,0-1

07/04/2022

07/04/2023

Scikit-Learn

0,23-1

06/03/2023

02/06/2021

Scikit-Learn

0,20-1

>4 ans

Non pris en charge

SageMaker Politique de support intégrée à Algorithm Container

Les conteneurs d'algorithmes SageMaker intégrés sont un ensemble d'images Docker pour les algorithmes d'apprentissage automatique intégrés à SageMaker la formation et au service. Pour afficher les conteneurs d'algorithmes SageMaker intégrés disponibles, consultez les chemins de registre Docker et les exemples de code. Accédez à la AWS région de votre choix et parcourez les images à l'aide de la balise (algorithme).

Les mises à jour des correctifs pour les images de conteneur intégrées sont des mises à jour « sur place ». Pour rester au courant up-to-date des derniers correctifs de sécurité, nous vous recommandons de consulter la dernière version de l'image de l'algorithme intégré à l'aide de la balise latest image.

Conteneur d'images Fin du patch

blazingtext:latest

15/05/2024

factorization-machines:latest

15/05/2024

forecasting-deepar:latest

Jusqu'à ce que la dépréciation de l'image soit annoncée

image-classification:latest

15/05/2024

instance-segmentation:latest

15/05/2024

ipembeddings:latest

15/05/2024

ipinsights:latest

15/05/2024

kmeans:latest

15/05/2024

knn:latest

15/05/2024

linear-learner:inference-cpu-1/training-cpu-1

15/05/2024

linear-learner:latest

15/05/2024

mxnet-algorithms:training-cpu/inference-cpu

15/05/2024

ntm:latest

15/05/2024

object-detection:latest

15/05/2024

object2vec:latest

15/05/2024

pca:latest

15/05/2024

randomcutforest:latest

15/05/2024

semantic-segmentation:latest

15/05/2024

seq2seq:latest

15/05/2024

Politique de support de LLM Hosting Container

Les conteneurs d'hébergement LLM tels que les conteneurs HuggingFace Text Generation Inference (TGI) atteignent leur date de fin de mise à jour 30 jours après leur GitHub date de sortie.

Important

Nous faisons une exception en cas de mise à jour de version majeure. Par exemple, si le kit d'outils HuggingFace Text Generation Inference (TGI) est mis à jour vers TGI 2.0, nous continuons à prendre en charge la version la plus récente de TGI 1.4 pendant une période de trois mois à compter de la date de sortie. GitHub

Conteneur d'outils Version actuelle GitHub GA Fin du patch

TGI

tgi2.0.0

15/04/2024

15/05/2024

TGI

tgi1.4.5

03/04/2024

07/03/2024

TGI

tgi1.4.2

22/02/2024

22/03/2024

TGI

tgi1.4.0

29/01/2024

29/02/2024

TGI

tgi1.3.3

19/12/2023

19/01/2024

TGI

tgi1.3.1

11/12/2023

01/11/2024

TGI

tgi1.2.0

12/04/2023

04/01/2024

TGI

optimum 0.0.21

10/04/2024

10/05/2024

TGI

optimum 0.0.19

19/02/2024

19/03/2024

TGI

optimum 0.0.18

01/02/2024

01/03/2024

TGI

optimum 0.0.17

24/01/2024

24/02/2024

TGI

optimum 0.0.16

18/01/2024

18/02/2024

TEI

tei1.2.3

26/04/2024

26/05/2024

Conteneurs non pris en charge et dépréciation

Lorsqu'un conteneur arrive à la fin du correctif ou qu'il est obsolète, il ne reçoit plus de correctif de sécurité. Les conteneurs sont déconseillés lorsque des frameworks ou des algorithmes complets ne sont plus pris en charge.

Les conteneurs suivants ne sont plus pris en charge :