Démarrage de votre modèle Amazon Lookout for Vision - Amazon Lookout for Vision

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Démarrage de votre modèle Amazon Lookout for Vision

Avant de pouvoir utiliser un modèle Amazon Lookout for Vision pour détecter des anomalies, vous devez d'abord démarrer le modèle. Vous démarrez un modèle en appelant l'StartModelAPI et en transmettant ce qui suit :

  • ProjectName— Le nom du projet qui contient le modèle que vous souhaitez démarrer.

  • ModelVersion— La version du modèle que vous souhaitez démarrer.

  • MinInferenceUnits— Le nombre minimum d'unités d'inférence. Pour en savoir plus, consultez Unités d'inférence.

  • (Facultatif) MaxInferenceUnits— Le nombre maximum d'unités d'inférence qu'Amazon Lookout for Vision peut utiliser pour redimensionner automatiquement le modèle. Pour en savoir plus, consultez Unités d'inférence à échelle automatique.

La console Amazon Lookout for Vision fournit un exemple de code que vous pouvez utiliser pour démarrer et arrêter un modèle.

Note

La durée de fonctionnement de votre modèle vous est facturée. Pour arrêter un modèle en cours d'exécution, voirArrêter votre modèle Amazon Lookout for Vision.

Vous pouvez utiliser le AWS SDK pour visualiser les modèles en cours d'exécution dans toutes les AWS régions dans lesquelles Lookout for Vision est disponible. Pour un exemple de code, voir find_running_models.py.

Démarrage de votre modèle (console)

La console Amazon Lookout for Vision fournit AWS CLI une commande que vous pouvez utiliser pour démarrer un modèle. Une fois le modèle démarré, vous pouvez commencer à détecter des anomalies dans les images. Pour en savoir plus, consultez Détecter des anomalies dans une image.

Pour démarrer un modèle (console)
  1. Si ce n'est pas déjà fait, installez et configurez les AWS CLI AWS SDK. Pour en savoir plus, consultez Étape 4 : Configuration des AWS SDK AWS CLI et.

  2. Ouvrez la console Amazon Lookout for Vision à l'adresse https://console.aws.amazon.com/lookoutvision/.

  3. Sélectionnez Get started (Démarrer).

  4. Dans le volet de navigation de gauche, choisissez Projects.

  5. Sur la page Ressources des projets, choisissez le projet contenant le modèle entraîné que vous souhaitez démarrer.

  6. Dans la section Modèles, choisissez le modèle que vous souhaitez démarrer.

  7. Sur la page de détails du modèle, choisissez Utiliser le modèle, puis choisissez Intégrer l'API au cloud.

    Astuce

    Si vous souhaitez déployer votre modèle sur un appareil périphérique, choisissez Create model packaging job. Pour en savoir plus, consultez Emballage de votre modèle Amazon Lookout for Vision.

  8. Sous les commandes de l'AWS CLI, copiez la commande de l'AWSinterface de ligne de commande qui appellestart-model.

  9. À l'invite de commande, entrez la start-model commande que vous avez copiée à l'étape précédente. Si vous utilisez le lookoutvision profil pour obtenir des informations d'identification, ajoutez le --profile lookoutvision-access paramètre.

  10. Dans la console, sélectionnez Modèles dans la page de navigation de gauche.

  11. Consultez la colonne État pour connaître l'état actuel du modèle. Lorsque le statut est hébergé, vous pouvez utiliser le modèle pour détecter des anomalies dans les images. Pour en savoir plus, consultez Détecter des anomalies dans une image.

Démarrage de votre modèle Amazon Lookout for Vision (SDK)

Vous démarrez un modèle en appelant l'StartModelopération.

Le démarrage d'un modèle peut prendre un certain temps. Vous pouvez vérifier l'état actuel en appelant DescribeModel. Pour en savoir plus, consultez Visualisation de vos modèles.

Pour démarrer votre modèle (SDK)
  1. Si ce n'est pas déjà fait, installez et configurez les AWS CLI AWS SDK. Pour en savoir plus, consultez Étape 4 : Configuration des AWS SDK AWS CLI et.

  2. Utilisez l'exemple de code suivant pour démarrer un modèle.

    CLI

    Modifiez les valeurs suivantes :

    • project-nameau nom du projet qui contient le modèle que vous souhaitez démarrer.

    • model-versionà la version du modèle que vous souhaitez démarrer.

    • --min-inference-unitsau nombre d'unités d'inférence que vous souhaitez utiliser.

    • (Facultatif) --max-inference-units jusqu'au nombre maximum d'unités d'inférence qu'Amazon Lookout for Vision peut utiliser pour redimensionner automatiquement le modèle.

    aws lookoutvision start-model --project-name "project name"\ --model-version model version\ --min-inference-units minimum number of units\ --max-inference-units max number of units \ --profile lookoutvision-access
    Python

    Ce code est extrait du GitHub référentiel d'exemples du SDK de AWS documentation. Voir l'exemple complet ici.

    @staticmethod def start_model( lookoutvision_client, project_name, model_version, min_inference_units, max_inference_units = None): """ Starts the hosting of a Lookout for Vision model. :param lookoutvision_client: A Boto3 Lookout for Vision client. :param project_name: The name of the project that contains the version of the model that you want to start hosting. :param model_version: The version of the model that you want to start hosting. :param min_inference_units: The number of inference units to use for hosting. :param max_inference_units: (Optional) The maximum number of inference units that Lookout for Vision can use to automatically scale the model. """ try: logger.info( "Starting model version %s for project %s", model_version, project_name) if max_inference_units is None: lookoutvision_client.start_model( ProjectName = project_name, ModelVersion = model_version, MinInferenceUnits = min_inference_units) else: lookoutvision_client.start_model( ProjectName = project_name, ModelVersion = model_version, MinInferenceUnits = min_inference_units, MaxInferenceUnits = max_inference_units) print("Starting hosting...") status = "" finished = False # Wait until hosted or failed. while finished is False: model_description = lookoutvision_client.describe_model( ProjectName=project_name, ModelVersion=model_version) status = model_description["ModelDescription"]["Status"] if status == "STARTING_HOSTING": logger.info("Host starting in progress...") time.sleep(10) continue if status == "HOSTED": logger.info("Model is hosted and ready for use.") finished = True continue logger.info("Model hosting failed and the model can't be used.") finished = True if status != "HOSTED": logger.error("Error hosting model: %s", status) raise Exception(f"Error hosting model: {status}") except ClientError: logger.exception("Couldn't host model.") raise
    Java V2

    Ce code est extrait du GitHub référentiel d'exemples du SDK de AWS documentation. Voir l'exemple complet ici.

    /** * Starts hosting an Amazon Lookout for Vision model. Returns when the model has * started or if hosting fails. You are charged for the amount of time that a * model is hosted. To stop hosting a model, use the StopModel operation. * * @param lfvClient An Amazon Lookout for Vision client. * @param projectName The name of the project that contains the model that you * want to host. * @modelVersion The version of the model that you want to host. * @minInferenceUnits The number of inference units to use for hosting. * @maxInferenceUnits The maximum number of inference units that Lookout for * Vision can use for automatically scaling the model. If the * value is null, automatic scaling doesn't happen. * @return ModelDescription The description of the model, which includes the * model hosting status. */ public static ModelDescription startModel(LookoutVisionClient lfvClient, String projectName, String modelVersion, Integer minInferenceUnits, Integer maxInferenceUnits) throws LookoutVisionException, InterruptedException { logger.log(Level.INFO, "Starting Model version {0} for project {1}.", new Object[] { modelVersion, projectName }); StartModelRequest startModelRequest = null; if (maxInferenceUnits == null) { startModelRequest = StartModelRequest.builder().projectName(projectName).modelVersion(modelVersion) .minInferenceUnits(minInferenceUnits).build(); } else { startModelRequest = StartModelRequest.builder().projectName(projectName).modelVersion(modelVersion) .minInferenceUnits(minInferenceUnits).maxInferenceUnits(maxInferenceUnits).build(); } // Start hosting the model. lfvClient.startModel(startModelRequest); DescribeModelRequest describeModelRequest = DescribeModelRequest.builder().projectName(projectName) .modelVersion(modelVersion).build(); ModelDescription modelDescription = null; boolean finished = false; // Wait until model is hosted or failure occurs. do { modelDescription = lfvClient.describeModel(describeModelRequest).modelDescription(); switch (modelDescription.status()) { case HOSTED: logger.log(Level.INFO, "Model version {0} for project {1} is running.", new Object[] { modelVersion, projectName }); finished = true; break; case STARTING_HOSTING: logger.log(Level.INFO, "Model version {0} for project {1} is starting.", new Object[] { modelVersion, projectName }); TimeUnit.SECONDS.sleep(60); break; case HOSTING_FAILED: logger.log(Level.SEVERE, "Hosting failed for model version {0} for project {1}.", new Object[] { modelVersion, projectName }); finished = true; break; default: logger.log(Level.SEVERE, "Unexpected error when hosting model version {0} for project {1}: {2}.", new Object[] { projectName, modelVersion, modelDescription.status() }); finished = true; break; } } while (!finished); logger.log(Level.INFO, "Finished starting model version {0} for project {1} status: {2}", new Object[] { modelVersion, projectName, modelDescription.statusMessage() }); return modelDescription; }
  3. Si le résultat du code est le casModel is hosted and ready for use, vous pouvez utiliser le modèle pour détecter des anomalies dans les images. Pour en savoir plus, consultez Détecter des anomalies dans une image.