Rapport sur la durée d’exécution et les unités d’inférence utilisées - Rekognition

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Rapport sur la durée d’exécution et les unités d’inférence utilisées

Si vous avez entraîné et démarré votre modèle après août 2022, vous pouvez utiliser la CloudWatch métrique InServiceInferenceUnits Amazon pour déterminer le nombre d'heures pendant lesquelles un modèle a fonctionné et le nombre d'unités d'inférence utilisées pendant ces heures.

Note

Si vous ne possédez qu'un seul modèle dans une AWS région, vous pouvez également connaître la durée de fonctionnement du modèle en effectuant le suivi des appels entrants StartprojectVersion et entrants StopProjectVersion réussis CloudWatch. Cette approche ne fonctionne pas si vous exécutez plusieurs modèles dans la AWS région, car les métriques n'incluent pas d'informations sur le modèle.

Vous pouvez également l'utiliser AWS CloudTrail pour suivre les appels vers StartProjectVersion et StopProjectVersion (ce qui inclut l'ARN du modèle dans le requestParameters champ de l'historique des événements). CloudTrail les événements sont limités à 90 jours, mais vous pouvez les stocker pendant une période maximale de 7 ans dans un CloudTraillac.

La procédure suivante permet de créer des graphiques pour ce qui suit :

  • Le nombre d’heures pendant lequel un modèle a été exécuté.

  • Le nombre d’unités d’inférence utilisées par le modèle.

Vous pouvez choisir une période remontant jusqu’aux 15 derniers mois. Pour plus d’informations sur la conservation des métriques, consultez Conservation des métriques.

Pour déterminer la durée du modèle et les unités d’inférence utilisées pour un modèle
  1. Connectez-vous à la CloudWatch console AWS Management Console et ouvrez-la à l'adresse https://console.aws.amazon.com/cloudwatch/.

  2. Dans le volet de navigation de gauche, choisissez Toutes les métriques sous Métriques.

  3. Dans le volet de contenu, choisissez l’onglet Source.

  4. Assurez-vous que le bouton Tableau de bord est sélectionné.

  5. Dans la zone d’édition, remplacez le fichier JSON existant par le fichier JSON suivant. Remplacez les valeurs suivantes :

    • Project_Name : le projet contenant le modèle que vous souhaitez représenter graphiquement.

    • Version_Name : la version du modèle que vous souhaitez représenter graphiquement.

    • AWS_Region— La AWS région qui contient le modèle. Assurez-vous que la CloudWatch console se trouve dans la même AWS région en cochant le sélecteur de région dans la barre de navigation en haut de la page. Mettez à jour si nécessaire.

    { "sparkline": true, "metrics": [ [ { "expression": "SUM(m1)*m1", "label": "Inference units used", "id": "e1" } ], [ { "expression": "DATAPOINT_COUNT(m1)*m1/m1", "label": "Hours running", "id": "e2" } ], [ "AWS/Rekognition", "InServiceInferenceUnits", "ProjectName", "Project_Name", "VersionName", "Version_Name", { "id": "m1", "visible": false } ] ], "view": "singleValue", "stacked": false, "region": "AWS_Region", "stat": "Average", "period": 3600, "title": "Hours run and inference units used" }
  6. Choisissez Mettre à jour.

  7. Dans le haut de la page, choisissez une chronologie. Vous devriez voir les chiffres des unités d’inférence utilisées et les heures écoulées au cours de la chronologie. Les lacunes dans le graphique indiquent les moments où le modèle ne s’exécutait pas. La capture d'écran de la console ci-dessous montre les unités d'inférence utilisées et les heures réparties sur des périodes, avec une durée personnalisée de 2 semaines définie, avec les valeurs les plus élevées de 214 unités d'inférence et 209 heures de fonctionnement.

    Graphique montrant les unités d'inférence.
  8. (Facultatif) Ajoutez le graphique à un tableau de bord en choisissant Actions, puis Ajouter au tableau de bord - amélioré.